JP7100100B2 - Virtual image display device, control method, program, and storage medium - Google Patents

Virtual image display device, control method, program, and storage medium Download PDF

Info

Publication number
JP7100100B2
JP7100100B2 JP2020178815A JP2020178815A JP7100100B2 JP 7100100 B2 JP7100100 B2 JP 7100100B2 JP 2020178815 A JP2020178815 A JP 2020178815A JP 2020178815 A JP2020178815 A JP 2020178815A JP 7100100 B2 JP7100100 B2 JP 7100100B2
Authority
JP
Japan
Prior art keywords
virtual image
distance
displayed
observer
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020178815A
Other languages
Japanese (ja)
Other versions
JP2021014262A (en
Inventor
哲也 藤栄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Priority to JP2020178815A priority Critical patent/JP7100100B2/en
Publication of JP2021014262A publication Critical patent/JP2021014262A/en
Priority to JP2022106026A priority patent/JP2022121625A/en
Application granted granted Critical
Publication of JP7100100B2 publication Critical patent/JP7100100B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、虚像を表示する技術に関する。 The present invention relates to a technique for displaying a virtual image.

従来から、ヘッドアップディスプレイにおいて、ユーザのジェスチャに応じて表示内容を変更する技術が知られている。例えば、特許文献1には、運転者の目を撮影する視点検知用カメラと、運転者の手を撮影するジェスチャ検知用カメラを備え、運転者が指先で表示虚像を指し示す動作をすると、運転者の目位置と指先位置を検出することにより運転者の視線上にある虚像を特定し、さらに所定の動作を検出すると特定した虚像を消去するヘッドアップディスプレイが開示されている。また、特許文献2には、フロントウィンドウに少なくとも2つの虚像を同時に表示でき、かつ、表示サイズおよびドライバの虚像に対する焦点距離を各虚像でそれぞれ異なるようにすることが可能なヘッドアップディスプレイが開示されている。 Conventionally, in a head-up display, a technique of changing the display content according to a user's gesture has been known. For example, Patent Document 1 includes a viewpoint detection camera that captures the driver's eyes and a gesture detection camera that captures the driver's hand, and when the driver points to a display virtual image with his or her fingertips, the driver A head-up display is disclosed that identifies a virtual image in the driver's line of sight by detecting the eye position and the fingertip position of the driver, and erases the specified virtual image when a predetermined motion is detected. Further, Patent Document 2 discloses a head-up display capable of displaying at least two virtual images on the front window at the same time and making the display size and the focal length of the driver with respect to the virtual image different for each virtual image. ing.

特開2005-138755号公報Japanese Unexamined Patent Publication No. 2005-138755 特開2006-106254号公報Japanese Unexamined Patent Publication No. 2006-106254

虚像距離が異なる虚像を表示可能なヘッドアップディスプレイなどの虚像表示装置において、表示する各虚像の虚像距離は離れているものの、表示される方向が近い場合には、特許文献1に記載の方法では、ユーザが指し示す虚像を特定することが困難である。そこで、本発明は、ユーザが虚像に対してジェスチャを行う際に、表示される虚像の方向が近い場合であっても、ユーザが指し示す虚像を的確に特定することが可能な虚像表示装置を提供することを主な目的とする。 In a virtual image display device such as a head-up display capable of displaying virtual images having different virtual image distances, if the virtual image distances of the displayed virtual images are different, but the display directions are close, the method described in Patent Document 1 is used. , It is difficult to identify the virtual image pointed to by the user. Therefore, the present invention provides a virtual image display device capable of accurately identifying the virtual image pointed to by the user even when the direction of the displayed virtual image is close when the user makes a gesture with respect to the virtual image. The main purpose is to do.

請求項に記載の発明は、車両に搭載される虚像表示装置であって、
第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御手段と、
前記車両の座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出手段と、
記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接してない場合には、前記手を伸ばした方向に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定し、
記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接している場合には、前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段と、
を備えることを特徴とする。
The invention described in the claims is a virtual image display device mounted on a vehicle .
A display control means for simultaneously displaying a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance as a virtual image on a display means.
A detection means for detecting the direction in which the observer who sits on the seat of the vehicle and visually recognizes the virtual image reaches out, and the gesture length corresponding to the distance reached out.
If the direction in which the first object is displayed and the direction in which the second object is displayed are not close to each other, the first object or the second object is based on the direction in which the hand is reached. Is specified as the object selected by the observer, and
When the direction in which the first object is displayed and the direction in which the second object is displayed are close to each other , the first object is based on the direction in which the hand is reached and the gesture length. Alternatively, a specific means for identifying any of the second objects as the object selected by the observer, and
It is characterized by having.

また、請求項に記載の発明は、車両に搭載される虚像表示装置が実行する制御方法であって、
第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御工程と、
前記車両の座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出工程と、
記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接してない場合には、前記手を伸ばした方向に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定し、
記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接している場合には、前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定工程と、
を有することを特徴とする。
Further, the invention described in the claims is a control method executed by a virtual image display device mounted on a vehicle .
A display control step of simultaneously displaying a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance as a virtual image on a display means.
A detection step of detecting the direction in which the observer sitting on the seat of the vehicle and visually recognizing the virtual image reaches out, and the gesture length corresponding to the distance reached out.
If the direction in which the first object is displayed and the direction in which the second object is displayed are not close to each other, the first object or the second object is based on the direction in which the hand is reached. Is specified as the object selected by the observer, and
When the direction in which the first object is displayed and the direction in which the second object is displayed are close to each other , the first object is based on the direction in which the hand is reached and the gesture length. Alternatively, a specific step of specifying any of the second objects as an object selected by the observer, and
It is characterized by having.

また、請求項に記載の発明は、車両に搭載されるコンピュータが実行するプログラムであって、
第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御手段と、
前記車両の座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出手段と、
記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接してない場合には、前記手を伸ばした方向に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定し、
記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接している場合には、前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段
として前記コンピュータを機能させることを特徴とする。
Further, the invention described in the claims is a program executed by a computer mounted on a vehicle .
A display control means for simultaneously displaying a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance as a virtual image on a display means.
A detection means for detecting the direction in which the observer who sits on the seat of the vehicle and visually recognizes the virtual image reaches out, and the gesture length corresponding to the distance reached out.
If the direction in which the first object is displayed and the direction in which the second object is displayed are not close to each other, the first object or the second object is based on the direction in which the hand is reached. Is specified as the object selected by the observer, and
When the direction in which the first object is displayed and the direction in which the second object is displayed are close to each other , the first object is based on the direction in which the hand is reached and the gesture length. Alternatively, the computer is made to function as a specific means for identifying any of the second objects as an object selected by the observer.

ヘッドアップディスプレイシステムの構成例を示す。A configuration example of a head-up display system is shown. ヘッドアップディスプレイシステムの制御部のブロック図である。It is a block diagram of the control part of a head-up display system. 実施例に係る処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure which concerns on Example. マーク画像を選択して施設の詳細情報を表示する操作を受け付ける前後でのフロントウィンドウの表示例を示す。An example of displaying the front window before and after accepting the operation of selecting the mark image and displaying the detailed information of the facility is shown. ヘッドアップディスプレイシステムがディスプレイを3つ備える場合のフロントウィンドウ上での表示例を示す。A display example on the front window when the head-up display system has three displays is shown. 伸ばした手の位置と、各手の位置で選択される虚像との関係を示す図である。It is a figure which shows the relationship between the position of the extended hand and the virtual image selected by the position of each hand. 非反応範囲を設けた場合の各範囲と伸ばした手先の位置との関係を示す。The relationship between each range and the position of the extended hand when the non-reaction range is provided is shown. 虚像の位置と、反応範囲及び非反応範囲との関係を示す。The relationship between the position of the virtual image and the reaction range and the non-reaction range is shown.

本発明の1つの好適な実施形態では、虚像表示装置は、第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御手段と、前記虚像を視認する観察者が手を伸ばした距離を検出する検出手段と、前記観察者が手を伸ばした距離に基づいて、前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段と、を備える。 In one preferred embodiment of the present invention, the imaginary image display device simultaneously displays a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance as imaginary images. Based on the display control means to be displayed on the screen, the detection means for detecting the distance reached by the observer who visually recognizes the imaginary image, and the distance reached by the observer, the first object or the second object. It is provided with a specific means for identifying any of the above as an object selected by the observer.

上記虚像表示装置は、表示制御手段と、検出手段と、特定手段とを備える。表示制御手段は、第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示部に表示する。検出手段は、虚像を視認する観察者が手を伸ばした距離を検出する。特定手段は、観察者が手を伸ばした距離に基づいて、第1オブジェクトまたは第2オブジェクトのいずれかを、観察者が選択したオブジェクトとして特定する。この構成によれば、虚像表示装置は、虚像距離の異なる2つのオブジェクトを表示手段に虚像として表示させた場合に、観察者が選択したオブジェクトを、観察者が手を伸ばした距離に基づいて好適に特定することができる。 The virtual image display device includes display control means, detection means, and specific means. The display control means simultaneously displays the first object to be visually recognized at the first distance and the second object to be visually recognized at the second distance farther than the first distance as virtual images on the display unit. The detecting means detects the distance reached by the observer who visually recognizes the virtual image. The identifying means identifies either the first object or the second object as the object selected by the observer, based on the distance reached by the observer. According to this configuration, the virtual image display device is suitable based on the distance reached by the observer to display the object selected by the observer when two objects having different virtual image distances are displayed as virtual images by the display means. Can be specified in.

上記虚像表示装置の一態様では、前記検出手段は、さらに前記観察者が手を伸ばした方向を検出し、前記特定手段は、前記観察者が手を伸ばした方向から所定範囲内に前記第1オブジェクトおよび前記第2オブジェクトに対応する前記虚像の表示位置が含まれる場合に、前記観察者が手を伸ばした距離に基づいて、前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する。この態様により、虚像表示装置は、観察者が手を伸ばした方向に複数のオブジェクトが表示されていた場合であっても、観察者が選択したオブジェクトを、観察者が手を伸ばした距離に基づいて好適に特定することができる。 In one aspect of the imaginary image display device, the detection means further detects the direction in which the observer reaches out, and the specific means is the first within a predetermined range from the direction in which the observer reaches out. When the display position of the virtual image corresponding to the object and the second object is included, the observer can see either the first object or the second object based on the distance reached by the observer. Identifies as the selected object. According to this aspect, the virtual image display device is based on the distance at which the observer reaches for the object selected by the observer, even if a plurality of objects are displayed in the direction in which the observer reaches out. Can be suitably specified.

上記虚像表示装置の他の一態様では、前記特定手段は、前記観察者が手を伸ばした距離が基準距離よりも短い場合に、前記第1オブジェクトを前記観察者が選択したオブジェクトとして特定し、前記観察者が手を伸ばした距離が前記基準距離よりも長い場合に、前記第2オブジェクトを前記観察者が選択したオブジェクトとして特定する。この態様では、虚像表示装置は、遠くに表示された第2オブジェクトを観察者が選択する際には、近くに表示された第1オブジェクトを選択する場合よりも手を伸ばすべき距離を長く設定する。これにより、オブジェクトを選択する操作を、見た目の虚像の距離感と一致させて観察者に好適に実行させることができる。 In another aspect of the imaginary image display device, the identifying means identifies the first object as an object selected by the observer when the distance reached by the observer is shorter than the reference distance. When the distance reached by the observer is longer than the reference distance, the second object is specified as the object selected by the observer. In this aspect, the virtual image display device sets a longer distance to reach when the observer selects a second object displayed far away than when selecting a first object displayed closer. .. As a result, the operation of selecting an object can be suitably performed by the observer in accordance with the sense of distance of the apparent virtual image.

上記虚像表示装置の他の一態様では、前記特定手段は、前記第1距離および前記第2距離に応じて、前記基準距離を変化させる。この態様により、虚像表示装置は、オブジェクトを選択する操作を、見た目の虚像の距離感と一致させて観察者に好適に実行させることができる。 In another aspect of the virtual image display device, the specific means changes the reference distance according to the first distance and the second distance. According to this aspect, the virtual image display device can make the observer preferably perform the operation of selecting an object in accordance with the sense of distance of the apparent virtual image.

上記虚像表示装置の他の一態様では、前記特定手段は、前記基準距離を含む所定距離範囲に前記観察者が手を伸ばした距離が含まれる場合は、前記第1オブジェクトおよび前記第2オブジェクトのいずれも前記観察者が選択したオブジェクトとして特定しない。この態様により、虚像表示装置は、観察者が選択したオブジェクトを誤認識するのを好適に抑制することができる。 In another aspect of the virtual image display device, the specific means of the first object and the second object when the predetermined distance range including the reference distance includes the distance reached by the observer. Neither is specified as an object selected by the observer. According to this aspect, the virtual image display device can suitably suppress the erroneous recognition of the object selected by the observer.

上記虚像表示装置の他の一態様では、虚像表示装置は、前記観察者のジェスチャを認識する認識手段と、前記特定手段により前記観察者が選択したオブジェクトが特定された後に、前記認識手段により所定のジェスチャが認識された際に、前記選択されたオブジェクトに関連する処理を実行する実行手段と、をさらに備える。この態様により、虚像表示装置は、ユーザが選択したオブジェクトに関連する処理を、ユーザのジェスチャに応じて好適に実行することができる。 In another aspect of the virtual image display device, the virtual image display device is determined by the recognition means after the recognition means for recognizing the gesture of the observer and the object selected by the observer are specified by the specific means. Further includes an execution means for executing a process related to the selected object when the gesture of the above is recognized. According to this aspect, the virtual image display device can suitably perform the processing related to the object selected by the user according to the gesture of the user.

本発明の他の好適な実施形態では、虚像表示装置が実行する制御方法であって、第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御工程と、前記虚像を視認する観察者が手を伸ばした距離を検出する検出工程と、前記観察者が手を伸ばした距離に基づいて、前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定工程と、を有する。虚像表示装置は、この制御方法を実行することで、虚像距離の異なる2つのオブジェクトを表示手段に虚像として表示させた場合に、観察者が選択したオブジェクトを、観察者が手を伸ばした距離に基づいて好適に特定することができる。 In another preferred embodiment of the present invention, the control method executed by the imaginary image display device includes a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance. Is displayed on the display means at the same time as an imaginary image, a detection step of detecting the distance reached by the observer who visually recognizes the imaginary image, and the first step based on the distance reached by the observer. It has a specific step of identifying either one object or the second object as an object selected by the observer. By executing this control method, the virtual image display device causes the display means to display two objects having different virtual image distances as virtual images, and the object selected by the observer is set to the distance reached by the observer. It can be suitably specified based on this.

本発明のさらに別の実施形態では、コンピュータが実行するプログラムであって、第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御手段と、前記虚像を視認する観察者が手を伸ばした距離を検出する検出手段と、前記観察者が手を伸ばした距離に基づいて、前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段として前記コンピュータを機能させる。コンピュータは、このプログラムを実行することで、虚像距離の異なる2つのオブジェクトを表示手段に虚像として表示させた場合に、観察者が選択したオブジェクトを、観察者が手を伸ばした距離に基づいて好適に特定することができる。好適には、上記プログラムは、記憶媒体に記憶される。 In still another embodiment of the present invention, a program executed by a computer, in which a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance are regarded as imaginary images. The first object or the said The computer is made to function as a specific means for identifying any of the second objects as the object selected by the observer. When the computer executes this program to display two objects with different virtual image distances as virtual images on the display means, the object selected by the observer is suitable based on the distance reached by the observer. Can be specified in. Preferably, the program is stored in a storage medium.

以下、図面を参照して本発明の好適な実施例について説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

[システム構成]
図1は、実施例に係るヘッドアップディスプレイシステム2の構成例である。図1に示すように、本実施例に係るヘッドアップディスプレイシステム2は、2つの虚像を同時に表示し、かつ、ジェスチャによる操作が可能であって、主に、第1及び第2ディスプレイ41、42(区別しない場合、「ディスプレイ4」と総称する。)と、車室内撮影カメラ6と、凹面鏡8と、図示しない後述の制御部とを備える。そして、ヘッドアップディスプレイシステム2は、フロントウィンドウ25と、天井部27と、ボンネット28と、ダッシュボード29とを備える車両に取り付けられる。
[System configuration]
FIG. 1 is a configuration example of the head-up display system 2 according to the embodiment. As shown in FIG. 1, the head-up display system 2 according to the present embodiment displays two virtual images at the same time and can be operated by gestures, and is mainly operated by the first and second displays 41 and 42. (When not distinguished, they are collectively referred to as "display 4"), a vehicle interior photographing camera 6, a concave mirror 8, and a control unit (not shown) described later. The head-up display system 2 is attached to a vehicle including a front window 25, a ceiling portion 27, a bonnet 28, and a dashboard 29.

第1及び第2ディスプレイ41、42は、ダッシュボード29内に設けられ、施設情報や経路案内情報、走行速度情報、その他運転を補助する情報を示す画像を表示する。第1ディスプレイ41は、第2ディスプレイ42から凹面鏡8までの光路を遮らない位置に設置される。第1及び第2ディスプレイ41、42は、同じくダッシュボード29内に設けられた凹面鏡8に向けられており、第1及び第2ディスプレイ41、42から射出された光(「表示光」とも呼ぶ。)は、凹面鏡8に入射する。この場合、凹面鏡8で反射した光は、ダッシュボード29に設けられた開口部89を介してフロントウィンドウ25へ到達し、さらにフロントウィンドウ25で反射することで運転者の目の位置に到達する。図1は、第1ディスプレイ41から射出された光の光路を破線、第2ディスプレイ42から射出された光の光路を一点鎖線により示している。 The first and second displays 41 and 42 are provided in the dashboard 29 and display images showing facility information, route guidance information, traveling speed information, and other information that assists driving. The first display 41 is installed at a position that does not block the optical path from the second display 42 to the concave mirror 8. The first and second displays 41 and 42 are directed to the concave mirror 8 also provided in the dashboard 29, and the light emitted from the first and second displays 41 and 42 (also referred to as "display light"). ) Is incident on the concave mirror 8. In this case, the light reflected by the concave mirror 8 reaches the front window 25 through the opening 89 provided in the dashboard 29, and further reflected by the front window 25 to reach the position of the driver's eyes. In FIG. 1, the optical path of the light emitted from the first display 41 is shown by a broken line, and the optical path of the light emitted from the second display 42 is shown by a dashed line.

このように、第1及び第2ディスプレイ41、42は、表示光を運転者の目の位置へ到達させて、運転者に、それぞれ虚像Iv1、Iv2を視認させる。以後では、虚像Iv1として表示される画像を「第1オブジェクトOb1」、虚像Iv2として表示される画像を「第2オブジェクトOb2」、これらを区別しない場合には単に「オブジェクト」とも呼ぶ。 In this way, the first and second displays 41 and 42 bring the display light to the position of the driver's eyes so that the driver can visually recognize the virtual images Iv1 and Iv2, respectively. Hereinafter, the image displayed as the virtual image Iv1 is referred to as "first object Ob1", the image displayed as virtual image Iv2 is referred to as "second object Ob2", and when these are not distinguished, they are also simply referred to as "object".

ここで、運転者の目の位置から虚像までの距離(単に「虚像距離」とも呼ぶ。)は、ディスプレイ4からフロントウィンドウ25までの光路長に応じて異なる。図1の例では、第2ディスプレイ42は、第1ディスプレイ41よりも凹面鏡8に対して離れた位置に設置されているため、虚像Iv2の虚像距離は、虚像Iv1の虚像距離よりも長くなっている。虚像Iv1の虚像距離は、本発明における「第1距離」の一例であり、虚像Iv2の虚像距離は、本発明における「第2距離」の一例である。 Here, the distance from the position of the driver's eyes to the virtual image (also simply referred to as “virtual image distance”) varies depending on the optical path length from the display 4 to the front window 25. In the example of FIG. 1, since the second display 42 is installed at a position farther from the concave mirror 8 than the first display 41, the virtual image distance of the virtual image Iv2 is longer than the virtual image distance of the virtual image Iv1. There is. The virtual image distance of the virtual image Iv1 is an example of the "first distance" in the present invention, and the virtual image distance of the virtual image Iv2 is an example of the "second distance" in the present invention.

なお、第1及び第2ディスプレイ41、42は、液晶ディスプレイの他、画像を構成する光が投影されて中間像が表示されるスクリーンであってもよい。ディスプレイ4、凹面鏡8、及びフロントウィンドウ25は、本発明における「表示手段」の一例である。また、第1ディスプレイ41または第2ディスプレイ42の少なくとも一方は、凹面鏡8との距離をユーザが調整できるように移動自在に構成されていてもよい。 In addition to the liquid crystal display, the first and second displays 41 and 42 may be screens on which the light constituting the image is projected and an intermediate image is displayed. The display 4, the concave mirror 8, and the front window 25 are examples of the "display means" in the present invention. Further, at least one of the first display 41 and the second display 42 may be movably configured so that the distance from the concave mirror 8 can be adjusted by the user.

車室内撮影カメラ6は、車室内を撮影するカメラであり、運転席に座る運転者の顔及び手が撮影範囲内になるように設置される。車室内撮影カメラ6が撮影した画像(「撮影画像Im」とも呼ぶ。)は、運転者の手の3次元位置を計測するのに用いられる。車室内撮影カメラ6は、好適には、ステレオカメラである。 The vehicle interior photographing camera 6 is a camera that photographs the vehicle interior, and is installed so that the face and hands of the driver sitting in the driver's seat are within the photographing range. The image taken by the vehicle interior photographing camera 6 (also referred to as “photographed image Im”) is used to measure the three-dimensional position of the driver's hand. The vehicle interior photographing camera 6 is preferably a stereo camera.

凹面鏡8は、第1ディスプレイ41及び第2ディスプレイ42から射出された表示光を、ダッシュボード29に設けられた開口部89に向けて反射し、フロントウィンドウ25へ到達させる。この場合、凹面鏡8は、表示光が示す画像を拡大して反射する。なお、凹面鏡8は、第1ディスプレイ41及び第2ディスプレイ42の各々に対してそれぞれ設けられてもよい。ここで、第1ディスプレイ41から凹面鏡8までの光路長は、第2ディスプレイ42から凹面鏡8までの光路長よりも短いことから、虚像Iv1は、虚像Iv2よりも虚像距離が短くなる。 The concave mirror 8 reflects the display light emitted from the first display 41 and the second display 42 toward the opening 89 provided in the dashboard 29 and reaches the front window 25. In this case, the concave mirror 8 magnifies and reflects the image indicated by the display light. The concave mirror 8 may be provided for each of the first display 41 and the second display 42, respectively. Here, since the optical path length from the first display 41 to the concave mirror 8 is shorter than the optical path length from the second display 42 to the concave mirror 8, the virtual image Iv1 has a shorter virtual image distance than the virtual image Iv2.

なお、以後では、運転者を操作者とする場合について説明するが、他の乗員が操作者であってもよい。この場合であっても、車室内撮影カメラ6は、操作者の顔及び手が撮影範囲内になるように向けられる。 In the following, a case where the driver is the operator will be described, but another occupant may be the operator. Even in this case, the vehicle interior photographing camera 6 is directed so that the operator's face and hands are within the photographing range.

[機能構成]
ヘッドアップディスプレイシステム2は、ヘッドアップディスプレイシステム2を制御する制御部を車室内の任意の位置に有する。図2は、ヘッドアップディスプレイシステム2の制御部10の機能的な構成を表すブロック図である。図2に示すように、制御部10は、ディスプレイ4及び車室内撮影カメラ6と電気的に接続し、表示制御部11と、ジェスチャ検出部12と、対象特定部13とを有する。なお、表示制御部11と、ジェスチャ検出部12と、対象特定部13は、一体に構成されていてもよく、電気的に接続した状態でそれぞれ離れた場所に設置されていてもよい。
[Functional configuration]
The head-up display system 2 has a control unit that controls the head-up display system 2 at an arbitrary position in the vehicle interior. FIG. 2 is a block diagram showing a functional configuration of the control unit 10 of the head-up display system 2. As shown in FIG. 2, the control unit 10 is electrically connected to the display 4 and the vehicle interior photographing camera 6, and has a display control unit 11, a gesture detection unit 12, and a target identification unit 13. The display control unit 11, the gesture detection unit 12, and the target identification unit 13 may be integrally configured or may be installed at separate locations while being electrically connected.

表示制御部11は、第1ディスプレイ41及び第2ディスプレイ42の各々に表示させるオブジェクトを表す画像信号を生成する。例えば、表示制御部11は、オブジェクトとして施設の位置を示すマーク画像を表示する場合、図示しないGPS受信機の出力や地図データ等に基づき、フロントウィンドウ25を介して運転者が視認可能な位置に存在する施設を認識し、当該施設を表すマーク画像を表す画像信号を生成する。このとき、表示制御部11は、虚像Iv1、Iv2の各虚像距離を予め記憶しておき、各虚像距離と、車両からマーク画像を表示する施設までの距離とに応じて、第1ディスプレイ41または第2ディスプレイ42のいずれにマーク画像を表示させるか決定する。 The display control unit 11 generates an image signal representing an object to be displayed on each of the first display 41 and the second display 42. For example, when the display control unit 11 displays a mark image indicating the position of the facility as an object, the display control unit 11 is located at a position visible to the driver via the front window 25 based on the output of a GPS receiver (not shown), map data, or the like. It recognizes an existing facility and generates an image signal representing a mark image representing the facility. At this time, the display control unit 11 stores each virtual image distance of the virtual images Iv1 and Iv2 in advance, and depending on each virtual image distance and the distance from the vehicle to the facility for displaying the mark image, the first display 41 or It is determined which of the second displays 42 the mark image is to be displayed.

また、表示制御部11は、虚像として表示させるオブジェクトに関する情報(「オブジェクト情報Io」とも呼ぶ。)を、対象特定部13へ供給する。ここで、オブジェクト情報Ioは、例えば、フロントウィンドウ25上での位置及び形状の情報、虚像として表示される際の虚像距離の情報、ジェスチャ操作可能であるか否かを示す情報などを含む。なお、表示制御部11は、オブジェクト情報Ioを生成する場合、オブジェクトの種類に基づき、各オブジェクトがジェスチャ操作可能であるか否かを判定してもよい。例えば、オブジェクトがマーク画像の場合、表示制御部11は、マーク画像が示す施設の詳細情報を地図データ等から抽出可能であることから、ジェスチャ操作可能であると判断する。 Further, the display control unit 11 supplies information about an object to be displayed as a virtual image (also referred to as “object information Io”) to the target identification unit 13. Here, the object information Io includes, for example, information on the position and shape on the front window 25, information on the virtual image distance when displayed as a virtual image, information indicating whether or not gesture operation is possible, and the like. When the object information Io is generated, the display control unit 11 may determine whether or not each object can be gesture-operated based on the type of the object. For example, when the object is a mark image, the display control unit 11 determines that the gesture operation is possible because the detailed information of the facility indicated by the mark image can be extracted from the map data or the like.

なお、表示制御部11は、マーク画像以外に、距離を示す画像、ルート案内の矢印の画像などの種々の画像をオブジェクトとして表示してもよい。この場合、表示制御部11は、例えば、表示する情報の種類ごとに、第1ディスプレイ41または第2ディスプレイ42のいずれで表示するかを決定してもよい。 In addition to the mark image, the display control unit 11 may display various images such as an image showing a distance and an image of an arrow for route guidance as an object. In this case, the display control unit 11 may determine, for example, whether to display on the first display 41 or the second display 42 for each type of information to be displayed.

ジェスチャ検出部12は、車室内撮影カメラ6から供給される撮影画像Imを基に運転者のジェスチャを認識する。本実施例では、ジェスチャ検出部12は、公知の画像認識処理に基づき、指差す動作を検出した場合に、伸ばした手の長さ(「ジェスチャ長Ltag」とも呼ぶ。)と、指差した方向(「指差方向Dtag」とも呼ぶ。)を検出する。例えば、ジェスチャ検出部12は、運転者の顏(目)の位置と、手(指)の位置を認識し、検出した顔と手との距離を、ジェスチャ長Ltagとして算出する。また、ジェスチャ検出部12は、顔の位置に対する手の位置の方向を、指差方向Dtagとして算出する。なお、車室内撮影カメラ6がステレオカメラでない単眼カメラの場合には、ジェスチャ検出部12は、ダッシュボード29上に設けられた図示しない複数の距離センサの計測値と、撮影画像Imとに基づき、ジェスチャ長Ltagを算出してもよい。ジェスチャ検出部12は、ジェスチャ長Ltag及び指差方向Dtagの情報を、対象特定部13へ供給する。 The gesture detection unit 12 recognizes the driver's gesture based on the captured image Im supplied from the vehicle interior photographing camera 6. In this embodiment, when the gesture detection unit 12 detects a pointing motion based on a known image recognition process, the length of the extended hand (also referred to as “gesture length Ltag”) and the pointing direction. (Also referred to as "pointing direction Dtag") is detected. For example, the gesture detection unit 12 recognizes the position of the driver's face (eyes) and the position of the hand (fingers), and calculates the distance between the detected face and hand as the gesture length Ltag. Further, the gesture detection unit 12 calculates the direction of the position of the hand with respect to the position of the face as the pointing direction Dtag. When the vehicle interior shooting camera 6 is a monocular camera that is not a stereo camera, the gesture detection unit 12 is based on the measured values of a plurality of distance sensors (not shown) provided on the dashboard 29 and the shot image Im. The gesture length Ltag may be calculated. The gesture detection unit 12 supplies information on the gesture length Ltag and the pointing direction Dtag to the target identification unit 13.

対象特定部13は、表示制御部11から受信したオブジェクト情報Io及びジェスチャ検出部12から通知されたジェスチャ長Ltag及び指差方向Dtagに基づき、運転者が操作可能なオブジェクトのうち、運転者が指し示したオブジェクトを特定する。具体的には、対象特定部13は、まず、オブジェクト情報Io及び指差方向Dtagに基づき、運転者の顔と手を結ぶ方向の周辺に表示されたオブジェクトを特定する。この時、対象特定部13は、オブジェクト情報Ioを参照し、ジェスチャ操作できないオブジェクトを、特定の対象から除外する。また、対象特定部13は、指差方向Dtagの周辺に、虚像Iv1として表示される第1オブジェクトOb1と虚像Iv2として表示される第2オブジェクトOb2が存在した場合、ジェスチャ長Ltagに基づき、いずれのオブジェクトがジェスチャ操作の対象となったか判定する。この場合、対象特定部13は、ジェスチャ長Ltagの閾値(「閾値Lth」とも呼ぶ。)を予め記憶しておく。そして、対象特定部13は、ジェスチャ長Ltagが閾値Lth以上の場合には、虚像距離が長い第2オブジェクトOb2が操作対象であると判断し、ジェスチャ長Ltagが閾値Lthより短い場合には、虚像距離が短い第1オブジェクトOb1が操作対象であると判断する。そして、対象特定部13は、操作対象となったオブジェクトを認識した場合、当該オブジェクトを特定する情報を表示制御部11へ送信する。閾値Lthは、本発明における「基準距離」の一例である。 The target identification unit 13 is pointed out by the driver among the objects that can be operated by the driver based on the object information Io received from the display control unit 11 and the gesture length Ltag and the pointing direction Dtag notified from the gesture detection unit 12. Identify the object. Specifically, the target specifying unit 13 first identifies an object displayed around the direction in which the driver's face and hand are tied, based on the object information Io and the pointing direction Dtag. At this time, the target specifying unit 13 refers to the object information Io and excludes the object that cannot be gestured from the specific target. Further, when the first object Ob1 displayed as the virtual image Iv1 and the second object Ob2 displayed as the virtual image Iv2 exist around the pointing direction Dtag, the target specifying unit 13 determines which of the two objects is based on the gesture length Ltag. Determine if the object was the target of a gesture operation. In this case, the target specifying unit 13 stores in advance a threshold value (also referred to as “threshold value Lth”) of the gesture length Ltag. Then, the target specifying unit 13 determines that the second object Ob2 having a long virtual image distance is the operation target when the gesture length Ltag is equal to or greater than the threshold value Lth, and when the gesture length Ltag is shorter than the threshold value Lth, the virtual image It is determined that the first object Ob1 having a short distance is the operation target. Then, when the target specifying unit 13 recognizes the object to be operated, the target specifying unit 13 transmits information for identifying the object to the display control unit 11. The threshold Lth is an example of the "reference distance" in the present invention.

対象特定部13が操作対象のオブジェクトの認識後、表示制御部11は、対象特定部13が特定したオブジェクトの色を変化させるなどして強調表示することで、選択されたマーク画像を運転者に提示する。その状態から、運転者が手を横に払うなどの所定のジェスチャが行われたことをジェスチャ認識部12がさらに認識した場合には、表示制御部11は、ジェスチャ検出部12が認識したジェスチャに応じて、そのオブジェクトに関連する処理を実行する。具体的には、表示制御部11は、オブジェクトの表示を消去したり、当該オブジェクトに関する追加情報を表示したりする。 After the target identification unit 13 recognizes the object to be operated, the display control unit 11 highlights the selected object by changing the color of the object specified by the target identification unit 13 to the driver. Present. When the gesture recognition unit 12 further recognizes that a predetermined gesture such as the driver waving his / her hand from that state is further recognized, the display control unit 11 changes to the gesture recognized by the gesture detection unit 12. In response, perform the processing related to that object. Specifically, the display control unit 11 erases the display of the object and displays additional information about the object.

なお、表示制御部11は、本発明における「表示制御手段」及び「実行手段」の一例であり、ジェスチャ検出部12は、本発明における「検出手段」及び「認識手段」の一例であり、対象特定部13は、本発明における「特定手段」の一例である。 The display control unit 11 is an example of the "display control means" and the "execution means" in the present invention, and the gesture detection unit 12 is an example of the "detection means" and the "recognition means" in the present invention. The specific unit 13 is an example of the "specific means" in the present invention.

[処理フロー]
図3は、本実施例において制御部10が実行する処理手順を示すフローチャートである。制御部10は、図3に示すフローチャートの処理を、繰り返し実行する。なお、図3では、前提として、表示制御部11は、マーク画像などのオブジェクトを第1ディスプレイ41または/及び第2ディスプレイ42に適宜表示すると共に、表示中のオブジェクトに対応するオブジェクト情報Ioを対象特定部13に送信しているものとする。
[Processing flow]
FIG. 3 is a flowchart showing a processing procedure executed by the control unit 10 in this embodiment. The control unit 10 repeatedly executes the process of the flowchart shown in FIG. In FIG. 3, as a premise, the display control unit 11 appropriately displays an object such as a mark image on the first display 41 and / and the second display 42, and targets the object information Io corresponding to the displayed object. It is assumed that the image is transmitted to the specific unit 13.

まず、ジェスチャ検出部12は、車室内撮影カメラ6から受信する撮影画像Im等に基づき、運転者が指差す動作を認識した場合に、手を伸ばした距離に相当するジェスチャ長Ltagと、手を伸ばした方向である指差方向Dtagとを検出する(ステップS101)。そして、ジェスチャ検出部12は、検出したジェスチャ長Ltagと指差方向Dtagの情報を対象特定部13に供給する。 First, the gesture detection unit 12 has a gesture length Ltag corresponding to the distance reached when the driver recognizes a pointing motion based on a captured image Im or the like received from the vehicle interior photographing camera 6, and a hand. The pointing direction Dtag, which is the extended direction, is detected (step S101). Then, the gesture detection unit 12 supplies the information of the detected gesture length Ltag and the pointing direction Dtag to the target identification unit 13.

次に、対象特定部13は、指差方向Dtag周辺に、操作可能なオブジェクトが表示されているか否か判定する(ステップS102)。具体的には、対象特定部13は、まず、表示制御部11から受信したオブジェクト情報Ioに基づき、ジェスチャ操作可能な表示中のオブジェクトの各々について、フロントウィンドウ25上の表示位置を認識する。そして、表示制御部11は、ジェスチャ検出部12から通知された指差方向Dtagが指し示すフロントウィンドウ25上の位置と、上述の表示位置とが近接するオブジェクトが存在するか否か判定する。 Next, the target specifying unit 13 determines whether or not an operable object is displayed around the pointing direction Dtag (step S102). Specifically, the target specifying unit 13 first recognizes the display position on the front window 25 for each of the objects being displayed that can be gesture-operated based on the object information Io received from the display control unit 11. Then, the display control unit 11 determines whether or not there is an object in which the position on the front window 25 pointed to by the pointing direction Dtag notified from the gesture detection unit 12 and the above-mentioned display position are close to each other.

そして、対象特定部13は、指差方向Dtagの周辺に操作可能なオブジェクトが表示されていると判断した場合(ステップS102;Yes)、ステップS103へ処理を進める。一方、対象特定部13は、指差方向Dtagの周辺に操作可能なオブジェクトが表示されていないと判断した場合(ステップS102;No)、オブジェクトに対する操作が行われていないと判断し、ステップS101へ処理を戻す。 Then, when the target specifying unit 13 determines that an operable object is displayed around the pointing direction Dtag (step S102; Yes), the process proceeds to step S103. On the other hand, when the target specifying unit 13 determines that the operable object is not displayed around the pointing direction Dtag (step S102; No), it determines that the operation for the object has not been performed, and proceeds to step S101. Return the process.

次に、ステップS103では、対象特定部13は、虚像距離の異なるオブジェクトをステップS102で検出したか否か判定する(ステップS103)。即ち、対象特定部13は、指差方向Dtagの周辺に操作可能なオブジェクトが複数存在し、かつ、これらの虚像距離が異なっているか否か判定する。そして、対象特定部13は、ステップS102で検出したオブジェクトが虚像距離の異なるオブジェクトであった場合(ステップS103;Yes)、ステップS104へ処理を進める。一方、対象特定部13は、虚像距離の異なるオブジェクトを検出しなかった場合(ステップS103;No)、即ち、指差方向Dtagの周辺では虚像距離の異なるオブジェクトが重なって表示されていなかった場合には、指差方向Dtagの周辺の操作可能なオブジェクトが選択されたと認識する(ステップS108)。なお、対象特定部13は、虚像距離が同一の複数のオブジェクトをステップS102で検出した場合には、例えば、指差方向Dtagに最も中心位置が近いオブジェクトが選択されたと認識する。 Next, in step S103, the target specifying unit 13 determines whether or not an object having a different virtual image distance is detected in step S102 (step S103). That is, the target specifying unit 13 determines whether or not there are a plurality of operable objects around the pointing direction Dtag and the virtual image distances thereof are different. Then, when the object detected in step S102 is an object having a different virtual image distance (step S103; Yes), the target specifying unit 13 proceeds to step S104. On the other hand, when the target specifying unit 13 does not detect objects having different virtual image distances (step S103; No), that is, when objects having different virtual image distances are not overlapped and displayed around the pointing direction Dtag. Recognizes that an operable object around the pointing direction Dtag has been selected (step S108). When a plurality of objects having the same virtual image distance are detected in step S102, the target specifying unit 13 recognizes that, for example, the object whose center position is closest to the pointing direction Dtag is selected.

次に、ステップS104では、対象特定部13は、虚像距離の異なる各オブジェクト(即ち第1オブジェクトOb1と第2オブジェクトOb2)の虚像距離に応じた閾値Lthを設定する(ステップS104)。この場合、対象特定部13は、第1オブジェクトOb1及び第2オブジェクトOb2の各虚像距離に基づき所定の式等を参照して閾値Lthを算出してもよく、予め算出された閾値Lthをメモリから抽出して使用してもよい。そして、対象特定部13は、ステップS101で検出したジェスチャ長Ltagが閾値Lth以上であるか否か判定する(ステップS105)。そして、対象特定部13は、ジェスチャ長Ltagが閾値Lth以上である場合(ステップS105;Yes)、虚像距離が遠い方のオブジェクトである第2オブジェクトOb2が選択されたと認識する(ステップS106)。一方、対象特定部13は、ジェスチャ長Ltagが閾値Lth未満である場合(ステップS105;No)、虚像距離が近い方のオブジェクトである第1オブジェクトOb1が選択されたと認識する(ステップS107)。 Next, in step S104, the target specifying unit 13 sets the threshold value Lth according to the virtual image distances of the objects having different virtual image distances (that is, the first object Ob1 and the second object Ob2) (step S104). In this case, the target specifying unit 13 may calculate the threshold Lth by referring to a predetermined formula or the like based on the virtual image distances of the first object Ob1 and the second object Ob2, and the pre-calculated threshold Lth is calculated from the memory. It may be extracted and used. Then, the target specifying unit 13 determines whether or not the gesture length Ltag detected in step S101 is equal to or greater than the threshold value Lth (step S105). Then, when the gesture length Ltag is equal to or greater than the threshold value Lth (step S105; Yes), the target specifying unit 13 recognizes that the second object Ob2, which is the object having the farther virtual image distance, is selected (step S106). On the other hand, when the gesture length Ltag is less than the threshold value Lth (step S105; No), the target specifying unit 13 recognizes that the first object Ob1 which is the object having the shorter virtual image distance is selected (step S107).

そして、表示制御部11は、ステップS106~S108で対象特定部13が指差し動作により選択されたと認識したオブジェクトを強調表示する(ステップS109)。その後、ジェスチャ検出部12は、選択されたオブジェクトに対する所定のジェスチャ操作をさらに検出した場合には、検出したジェスチャ操作に応じて、選択されたオブジェクトの追加情報を表示したり、表示を消去したりする。 Then, the display control unit 11 highlights the object recognized by the target identification unit 13 as being selected by the pointing motion in steps S106 to S108 (step S109). After that, when the gesture detection unit 12 further detects a predetermined gesture operation for the selected object, the gesture detection unit 12 displays additional information of the selected object or erases the display according to the detected gesture operation. do.

[表示例]
図4は、施設名称を表示するマーク画像を運転者がジェスチャにより選択して施設の詳細情報を表示する際の、ジェスチャの実行前後でのフロントウィンドウ25の表示例を示す。
[Display example]
FIG. 4 shows a display example of the front window 25 before and after the execution of the gesture when the driver selects the mark image displaying the facility name by the gesture and displays the detailed information of the facility.

図4(A)に示すように、表示制御部11は、交差点手前にある建物の施設名「Aストア」を表すマーク画像51を表示すると共に、Aストアの道路向かいにある建物の施設名「Bマート」を表すマーク画像52を虚像として表示している。この場合、表示制御部11は、施設名「Aストア」の建物が虚像Iv1の虚像距離(例えば10m)と所定距離以内であることから、マーク画像51を第1ディスプレイ41により第1オブジェクトOb1(即ち虚像Iv1)として表示する。また、表示制御部11は、施設名「Bストア」の建物が虚像Iv2の虚像距離(例えば30m)と所定距離以内であることから、マーク画像52を第2ディスプレイ42により第2オブジェクトOb2(即ち虚像Iv2)として表示する。 As shown in FIG. 4A, the display control unit 11 displays a mark image 51 representing the facility name “A store” of the building in front of the intersection, and also displays the facility name “A store” of the building opposite the road of the A store. The mark image 52 representing "B mart" is displayed as a virtual image. In this case, since the building having the facility name "A store" is within a predetermined distance from the virtual image distance (for example, 10 m) of the virtual image Iv1, the display control unit 11 uses the first display 41 to display the mark image 51 as the first object Ob1 ( That is, it is displayed as a virtual image Iv1). Further, since the building having the facility name "B store" is within a predetermined distance from the virtual image distance (for example, 30 m) of the virtual image Iv2, the display control unit 11 displays the mark image 52 on the second display 42 by the second object Ob2 (that is, that is). It is displayed as a virtual image Iv2).

ここで、マーク画像51とマーク画像52とのフロントウィンドウ25上での表示位置は近い。従って、図4(A)の状態で、マーク画像51または52のいずれかを運転者が指差した場合、対象特定部13は、マーク画像51、52の2つが指差方向Dtagの周辺にあるオブジェクトであると認識する。この場合、対象特定部13は、虚像Iv1、Iv2の各虚像距離に応じて設定した閾値Lthと、ジェスチャ検出部12が検出したジェスチャ長Ltagとを比較することで、マーク画像51、52のいずれが選択されたか判定する。 Here, the display positions of the mark image 51 and the mark image 52 on the front window 25 are close to each other. Therefore, in the state of FIG. 4A, when the driver points to either the mark image 51 or 52, the target identification unit 13 has two of the mark images 51 and 52 around the pointing direction Dtag. Recognize it as an object. In this case, the target specifying unit 13 compares the threshold value Lth set according to the virtual image distances of the virtual images Iv1 and Iv2 with the gesture length Ltag detected by the gesture detection unit 12, and the mark image 51 or 52 is used. Is selected.

そして、図4(B)の例では、対象特定部13は、ジェスチャ長Ltagが閾値Lth以上であることから、マーク画像52が指差し動作により選択されたと認識し、選択されたマーク画像52に対して縁取り効果を付すことで強調表示する。さらに、指差し動作の認識後、ジェスチャ検出部12が所定のジェスチャをさらに検出したことにより、表示制御部11は、マーク画像52に対応する施設「Bマート」の営業時間などの詳細情報を示した画像53を、地図データ等を参照することで表示する。このとき、好適には、表示制御部11は、選択されたマーク画像52と同じ虚像距離により、即ち第2ディスプレイ42により、画像53を表示するとよい。 Then, in the example of FIG. 4B, since the gesture length Ltag is equal to or greater than the threshold value Lth, the target identification unit 13 recognizes that the mark image 52 has been selected by the pointing motion, and the selected mark image 52 is used. On the other hand, it is highlighted by adding a edging effect. Further, after the gesture detection unit 12 further detects a predetermined gesture after recognizing the pointing motion, the display control unit 11 shows detailed information such as the business hours of the facility “B Mart” corresponding to the mark image 52. The image 53 is displayed by referring to map data or the like. At this time, it is preferable that the display control unit 11 displays the image 53 at the same virtual image distance as the selected mark image 52, that is, by the second display 42.

以上説明したように、本実施例に係るヘッドアップディスプレイシステム2の表示制御部11は、第1オブジェクトOb1と、第1オブジェクトOb2の虚像距離より遠い虚像距離により視認される第2オブジェクトOb2とを、それぞれ虚像Iv1、Iv2として同時にフロントウィンドウ25上に表示する。ジェスチャ検出部12は、虚像を視認する観察者が手を伸ばした距離であるジェスチャ長Ltagを検出する。対象特定部13は、ジェスチャ長Ltagに基づいて、第1オブジェクトOb1または第2オブジェクトOb2のいずれかを、観察者が選択したオブジェクトとして特定する。この構成によれば、ヘッドアップディスプレイシステム2は、虚像距離の異なる2つの第1及び第2オブジェクトOb1、Ob2をそれぞれ虚像Iv1、Iv2として表示させた場合に、観察者が選択したオブジェクトを、観察者が手を伸ばした距離に基づいて好適に特定することができる。 As described above, the display control unit 11 of the head-up display system 2 according to the present embodiment has the first object Ob1 and the second object Ob2 visually recognized by the virtual image distance farther than the virtual image distance of the first object Ob2. , Are displayed on the front window 25 at the same time as virtual images Iv1 and Iv2, respectively. The gesture detection unit 12 detects the gesture length Ltag, which is the distance reached by the observer who visually recognizes the virtual image. The target specifying unit 13 identifies either the first object Ob1 or the second object Ob2 as an object selected by the observer based on the gesture length Ltag. According to this configuration, the head-up display system 2 observes the object selected by the observer when the two first and second objects Ob1 and Ob2 having different virtual image distances are displayed as virtual images Iv1 and Iv2, respectively. It can be suitably identified based on the distance at which the person reaches out.

[変形例]
以下、上述の実施例に好適な変形例について説明する。以下の変形例は、任意に組み合わせて上述の実施例に適用してもよい。
[Modification example]
Hereinafter, a modification suitable for the above-mentioned embodiment will be described. The following modifications may be applied to the above-described embodiment in any combination.

(変形例1)
図1の例では、ヘッドアップディスプレイシステム2は、ディスプレイ4として、第1ディスプレイ41と第2ディスプレイ42の2つを備えていた。これに代えて、ヘッドアップディスプレイシステム2は、3以上のディスプレイ4を有してもよい。この場合、各ディスプレイ4は、凹面鏡8との距離がそれぞれ異なるように設置され、各ディスプレイ4に表示されるオブジェクトは、それぞれ異なる虚像距離となる虚像として表示される。
(Modification 1)
In the example of FIG. 1, the head-up display system 2 includes two displays 4, a first display 41 and a second display 42. Instead, the head-up display system 2 may have three or more displays 4. In this case, each display 4 is installed so that the distance from the concave mirror 8 is different, and the objects displayed on each display 4 are displayed as virtual images having different virtual image distances.

図5は、ヘッドアップディスプレイシステム2がディスプレイ4を3つ備える場合のフロントウィンドウ25上での表示例を示す。図5の例では、各ディスプレイ4は、それぞれ、表示するオブジェクトの虚像距離が10m、20m、30mになるように、凹面鏡8との距離が調整されて、ダッシュボード29内に設置されている。 FIG. 5 shows a display example on the front window 25 when the head-up display system 2 includes three displays 4. In the example of FIG. 5, each display 4 is installed in the dashboard 29 by adjusting the distance from the concave mirror 8 so that the virtual image distances of the objects to be displayed are 10 m, 20 m, and 30 m, respectively.

図5では、表示制御部11は、最も短い虚像距離(10m)となる虚像を表示するディスプレイ4により、当該虚像距離と略同一距離だけ前方にある施設「Aストア」のマーク画像51を表示し、最も長い虚像距離(30m)となる虚像を表示するディスプレイ4により、当該虚像距離と略同一距離だけ前方に視認される施設「Bストア」のマーク画像52を表示している。さらに表示制御部11は、これらの中間の虚像距離(20m)となる虚像を表示するディスプレイ4により、当該虚像と略同一距離だけ前方に視認される交差点に重ねて、進行方向を示す矢印画像54を表示している。 In FIG. 5, the display control unit 11 displays the mark image 51 of the facility “A store” which is approximately the same distance ahead of the virtual image distance by the display 4 which displays the virtual image having the shortest virtual image distance (10 m). The display 4 displaying the virtual image having the longest virtual image distance (30 m) displays the mark image 52 of the facility "B store" which is visually recognized forward by substantially the same distance as the virtual image distance. Further, the display control unit 11 superimposes the display 4 displaying a virtual image having an intermediate virtual image distance (20 m) on an intersection visually recognized forward by substantially the same distance as the virtual image, and indicates an arrow image 54 indicating the traveling direction. Is displayed.

なお、図5の例では、表示制御部11は、矢印画像54のオブジェクト情報Ioを生成する場合、ジェスチャ操作が不可である旨の情報をオブジェクト情報Ioに含めて対象特定部13に送信する。これにより、対象特定部13は、指差方向Dtagの周辺に矢印画像54が存在すると判断した場合であっても、指差し動作による選択対象として矢印画像54を認識しない。一方、対象特定部13は、指差方向Dtagの周辺にマーク画像51、52が存在すると判断した場合、後述する2つの閾値Lthに基づき、検出したジェスチャ長Ltagからいずれが選択されたか判定する。 In the example of FIG. 5, when the display control unit 11 generates the object information Io of the arrow image 54, the display control unit 11 includes the information that the gesture operation is impossible in the object information Io and transmits the information to the target identification unit 13. As a result, the target specifying unit 13 does not recognize the arrow image 54 as the selection target by the pointing operation even when it is determined that the arrow image 54 exists around the pointing direction Dtag. On the other hand, when the target specifying unit 13 determines that the mark images 51 and 52 exist around the pointing direction Dtag, it determines which of the detected gesture length Ltag is selected based on the two threshold values Lth described later.

次に、ディスプレイ4が3つ存在する場合の閾値Lthの設定方法について説明する。 Next, a method of setting the threshold value Lth when three displays 4 are present will be described.

対象特定部13は、ジェスチャ長Ltagに関して閾値Lthを2つ設定することで、虚像距離が最も長いオブジェクトが選択されたと判定する範囲、虚像距離が2番目に長いオブジェクトが選択されたと判定する範囲、及び虚像距離が最も短いオブジェクトが選択されたと判定する範囲とをそれぞれ設ける。以後では、2つの閾値Lthのうち小さい方の閾値Lthを「第1閾値Lth1」と呼び、大きい方の閾値Lthを「第2閾値Lth2」とも呼ぶ。 The target specifying unit 13 sets two threshold values Lth with respect to the gesture length Ltag, so that the range in which the object having the longest virtual image distance is determined to be selected, the range in which the object having the second longest virtual image distance is determined to be selected, and the range in which the object having the longest virtual image distance is selected are selected. And a range for determining that the object having the shortest virtual image distance is selected, respectively. Hereinafter, the smaller threshold value Lth of the two threshold values Lth is referred to as “first threshold value Lth1”, and the larger threshold value Lth is also referred to as “second threshold value Lth2”.

図6は、伸ばした手の位置と、各手の位置で選択される虚像との関係を示す図である。図6の例では、ヘッドアップディスプレイシステム2は、虚像距離がそれぞれ異なる虚像Iv1~Iv3を、指差方向Dtagの周辺に表示している。また、反応範囲R1~R3は、第1閾値Lth1及び第2閾値Lth2により分けられたジェスチャ長Ltagの範囲を示す。 FIG. 6 is a diagram showing the relationship between the position of the extended hand and the virtual image selected at the position of each hand. In the example of FIG. 6, the head-up display system 2 displays virtual images Iv1 to Iv3 having different virtual image distances around the pointing direction Dtag. Further, the reaction ranges R1 to R3 indicate the range of the gesture length Ltag divided by the first threshold value Lth1 and the second threshold value Lth2.

図6の例では、対象特定部13は、虚像Iv1~Iv3の方向を指差すジェスチャをジェスチャ検出部12が検出した際に、検出したジェスチャ長Ltagが反応範囲R1に属する場合には、虚像Iv1に相当するオブジェクトが選択されたと認識する。また、対象特定部13は、検出したジェスチャ長Ltagが反応範囲R2に属する場合には、虚像Iv2に相当するオブジェクトが選択されたと認識する。同様に、対象特定部13は、検出したジェスチャ長Ltagが反応範囲R3に属する場合には、虚像Iv3に相当するオブジェクトが選択されたと認識する。 In the example of FIG. 6, when the gesture detection unit 12 detects a gesture pointing in the direction of the virtual image Iv1 to Iv3, the target identification unit 13 determines that the detected gesture length Ltag belongs to the reaction range R1. Recognizes that the object corresponding to is selected. Further, when the detected gesture length Ltag belongs to the reaction range R2, the target identification unit 13 recognizes that the object corresponding to the virtual image Iv2 is selected. Similarly, when the detected gesture length Ltag belongs to the reaction range R3, the target identification unit 13 recognizes that the object corresponding to the virtual image Iv3 is selected.

このように、虚像距離が異なる3つの虚像が表示された場合であっても、対象特定部13は、ジェスチャ長Ltagに基づき、ユーザがジェスチャにより選択したオブジェクトを的確に認識することができる。なお、ディスプレイ4が4つ以上存在する場合についても、ディスプレイ4の数に応じて閾値Lthを設定することで、ユーザがジェスチャにより選択したオブジェクトを的確に認識することができる。 In this way, even when three virtual images having different virtual image distances are displayed, the target specifying unit 13 can accurately recognize the object selected by the user by the gesture based on the gesture length Ltag. Even when there are four or more displays 4, by setting the threshold value Lth according to the number of displays 4, the user can accurately recognize the object selected by the gesture.

また、好適には、対象特定部13は、設定した閾値Lthを含む近傍範囲にジェスチャ長Ltagが属する場合には、ジェスチャ長Ltagと閾値Lthとの大小関係に関わらず、オブジェクトを選択する操作がなされていないと見なしてもよい。 Further, preferably, when the gesture length Ltag belongs to the neighborhood range including the set threshold value Lth, the target specifying unit 13 can perform an operation of selecting an object regardless of the magnitude relationship between the gesture length Lth and the threshold value Lth. It may be considered that it has not been done.

図7は、図6に示した反応範囲R1~R3の間に、オブジェクトを選択する操作がなされていないと見なす非反応範囲NR1、NR2を設けた場合の各範囲とジェスチャ長Ltagとの関係を示す。 FIG. 7 shows the relationship between each range and the gesture length Ltag when the non-reaction ranges NR1 and NR2, which are considered not to have been operated to select an object, are provided between the reaction ranges R1 to R3 shown in FIG. show.

図7の例では、対象特定部13は、非反応範囲NR1を、第1閾値Lth1の前後の所定距離以内の近傍範囲に設定し、非反応範囲NR2を、第2閾値Lth2の前後の所定距離以内の近傍範囲に設定している。そして、対象特定部13は、ジェスチャ長Ltagが非反応範囲NR1、NR2のいずれかに属する場合には、指差し動作が無効であるとみなす。 In the example of FIG. 7, the target identification unit 13 sets the non-reaction range NR1 to a neighborhood range within a predetermined distance before and after the first threshold value Lth1, and sets the non-reaction range NR2 to a predetermined distance before and after the second threshold value Lth2. It is set within the neighborhood range. Then, when the gesture length Ltag belongs to any of the non-reaction ranges NR1 and NR2, the target identification unit 13 considers that the pointing motion is invalid.

このように、ジェスチャ検出部12は、非反応範囲NR1、NR2を設けることで、オブジェクトを選択する操作の誤認識を好適に抑制することができる。なお、図7の例では、ディスプレイ4が3つ存在する場合について述べたが、ディスプレイ4が2つの場合、又は、ディスプレイ4が4つ以上の場合においても同様に、非反応範囲を設けてもよい。この場合であっても、対象特定部13は、各閾値Lthの近傍範囲をオブジェクトの選択操作を受け付けない範囲に設定することで、オブジェクトの選択操作の誤認識を好適に抑制することができる。 As described above, the gesture detection unit 12 can suitably suppress erroneous recognition of the operation of selecting an object by providing the non-reaction ranges NR1 and NR2. In the example of FIG. 7, the case where three displays 4 are present has been described, but even when there are two displays 4 or when there are four or more displays 4, a non-reaction range may be provided in the same manner. good. Even in this case, the target specifying unit 13 can suitably suppress erroneous recognition of the object selection operation by setting the neighborhood range of each threshold value Lth to a range that does not accept the object selection operation.

また、対象特定部13は、第1閾値Lth1及び第2閾値Lth2を、虚像Iv1~Iv3の虚像距離に応じて設定してもよく、虚像Iv1~Iv3の虚像距離によらずに設定してもよい。 Further, the target specifying unit 13 may set the first threshold value Lth1 and the second threshold value Lth2 according to the virtual image distances of the virtual images Iv1 to Iv3, or may set them regardless of the virtual image distances of the virtual images Iv1 to Iv3. good.

図8は、運転者の視線方向における虚像Iv1~Iv3の位置と、反応範囲R1~R3及び非反応範囲NR1、NR2との関係を示す。具体的には、図8(A)は、運転者の視線方向における虚像Iv1~Iv3の位置関係を示し、図8(B)は、虚像Iv1~Iv3の虚像距離に応じて第1閾値Lth1及び第2閾値Lth2を設定した場合の反応範囲R1~R3及び非反応範囲NR1、NR2を示し、図8(C)は、虚像Iv1~Iv3の虚像距離によらずに第1閾値Lth1及び第2閾値Lth2を設定した場合の反応範囲R1~R3及び非反応範囲NR1、NR2を示す。図8(B)、(C)の例では、いずれも、反応範囲R1~R3は、等しい長さに設定されている。 FIG. 8 shows the relationship between the positions of the virtual images Iv1 to Iv3 in the line-of-sight direction of the driver and the reaction ranges R1 to R3 and the non-reaction ranges NR1 and NR2. Specifically, FIG. 8A shows the positional relationship of the virtual images Iv1 to Iv3 in the line-of-sight direction of the driver, and FIG. 8B shows the first threshold value Lth1 and the virtual image distances of the virtual images Iv1 to Iv3. The reaction ranges R1 to R3 and the non-reaction ranges NR1 and NR2 when the second threshold value Lth2 is set are shown, and FIG. 8C shows the first threshold value Lth1 and the second threshold value regardless of the virtual image distances of the virtual images Iv1 to Iv3. The reaction ranges R1 to R3 and the non-reaction ranges NR1 and NR2 when Lth2 is set are shown. In the examples of FIGS. 8B and 8C, the reaction ranges R1 to R3 are set to have the same length.

図8(B)の例では、反応範囲R1の中央値と反応範囲R2の中央値との差(矢印B1参照)と、反応範囲R2の中央値と反応範囲R3の中央値との差(矢印B2参照)との比は、虚像Iv1と虚像Iv2との虚像距離の差(矢印A1参照)と、虚像Iv2と虚像Iv3との虚像距離の差(矢印A2参照)との比と等しい。この場合、第1閾値Lth1は、反応範囲R1の中央値と反応範囲R2の中央値との平均値に設定され、第2閾値Lth2は、反応範囲R2の中央値と反応範囲R3の中央値との平均値に設定される。また、非反応範囲NR1は、第1閾値Lth1を中心とした範囲に設定され、非反応範囲NR2は、第2閾値Lth2を中心とした範囲に設定されている。 In the example of FIG. 8B, the difference between the median value of the reaction range R1 and the median value of the reaction range R2 (see arrow B1) and the difference between the median value of the reaction range R2 and the median value of the reaction range R3 (arrow). The ratio to (see B2) is equal to the ratio of the difference in the virtual image distance between the virtual image Iv1 and the virtual image Iv2 (see arrow A1) and the difference in the virtual image distance between the virtual image Iv2 and the virtual image Iv3 (see arrow A2). In this case, the first threshold Lth1 is set to the average value of the median value of the reaction range R1 and the median value of the reaction range R2, and the second threshold Lth2 is the median value of the reaction range R2 and the median value of the reaction range R3. Is set to the average value of. Further, the non-reaction range NR1 is set in a range centered on the first threshold value Lth1, and the non-reaction range NR2 is set in a range centered on the second threshold value Lth2.

一方、図8(C)の例では、反応範囲R1の中央値と反応範囲R2の中央値との差(矢印C1参照)と、反応範囲R2の中央値と反応範囲R3の中央値との差(矢印C2参照)とは等しい。即ち、この場合、虚像Iv1~虚像Iv3の虚像距離によらずに、反応範囲R1~R3は等間隔に設定されている。また、図8(B)の例と同様、第1閾値Lth1は、反応範囲R1の中央値と反応範囲R2の中央値との平均値に設定され、第2閾値Lth2は、反応範囲R2の中央値と反応範囲R3の中央値との平均値に設定される。また、非反応範囲NR1は、第1閾値Lth1を中心とした範囲に設定され、非反応範囲NR2は、第2閾値Lth2を中心とした範囲に設定されている。 On the other hand, in the example of FIG. 8C, the difference between the median value of the reaction range R1 and the median value of the reaction range R2 (see arrow C1) and the difference between the median value of the reaction range R2 and the median value of the reaction range R3. (See arrow C2). That is, in this case, the reaction ranges R1 to R3 are set at equal intervals regardless of the virtual image distances of the virtual images Iv1 to Iv3. Further, as in the example of FIG. 8B, the first threshold Lth1 is set to the average value of the median value of the reaction range R1 and the median value of the reaction range R2, and the second threshold Lth2 is the center of the reaction range R2. It is set to the average value of the value and the median value of the reaction range R3. Further, the non-reaction range NR1 is set in a range centered on the first threshold value Lth1, and the non-reaction range NR2 is set in a range centered on the second threshold value Lth2.

(変形例2)
本発明に係る虚像表示装置を適用可能なヘッドアップディスプレイシステムの構成は、複数の虚像のそれぞれを同時に複数の虚像距離により表示するものであればよく、図1に示す構成に限定されない。例えば、ヘッドアップディスプレイは、フロントウィンドウ25に代えて、運転者と車両の前方風景との間に設けられたコンバイナにディスプレイ4の光を反射させることで、運転者に虚像を視認させてもよい。
(Modification 2)
The configuration of the head-up display system to which the virtual image display device according to the present invention can be applied is not limited to the configuration shown in FIG. 1 as long as each of the plurality of virtual images is simultaneously displayed by a plurality of virtual image distances. For example, instead of the front window 25, the head-up display may allow the driver to visually recognize a virtual image by reflecting the light of the display 4 on a combiner provided between the driver and the landscape in front of the vehicle. ..

また、本発明に係る虚像表示装置は、複数の虚像のそれぞれを同時に複数の虚像距離で表示するヘッドマウントディスプレイにも好適に適用される。この場合、例えば、ヘッドマウントディスプレイのテンプル又はブリッジ部分等には、ユーザのジェスチャを撮影範囲に有する車室内撮影カメラ6が設けられる。 Further, the virtual image display device according to the present invention is also suitably applied to a head-mounted display that simultaneously displays each of a plurality of virtual images at a plurality of virtual image distances. In this case, for example, a vehicle interior photographing camera 6 having a user's gesture in the photographing range is provided on the temple or the bridge portion of the head-mounted display.

2 ヘッドアップディスプレイシステム
4 ディスプレイ
6 車室内撮影カメラ
8 凹面鏡
10 制御部
11 表示制御部
12 ジェスチャ検出部
13 対象特定部
25 フロントウィンドウ
28 ボンネット
29 ダッシュボード
2 Head-up display system 4 Display 6 Vehicle interior shooting camera 8 Concave mirror 10 Control unit 11 Display control unit 12 Gesture detection unit 13 Target identification unit 25 Front window 28 Bonnet 29 Dashboard

Claims (6)

車両に搭載される虚像表示装置であって、
第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御手段と、
前記車両の座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出手段と、
記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接してない場合には、前記手を伸ばした方向に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定し、
記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接している場合には、前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段と、
を備えることを特徴とする虚像表示装置。
It is a virtual image display device mounted on a vehicle.
A display control means for simultaneously displaying a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance as a virtual image on a display means.
A detection means for detecting the direction in which the observer who sits on the seat of the vehicle and visually recognizes the virtual image reaches out, and the gesture length corresponding to the distance reached out.
If the direction in which the first object is displayed and the direction in which the second object is displayed are not close to each other, the first object or the second object is based on the direction in which the hand is reached. Is specified as the object selected by the observer, and
When the direction in which the first object is displayed and the direction in which the second object is displayed are close to each other , the first object is based on the direction in which the hand is reached and the gesture length. Alternatively, a specific means for identifying any of the second objects as the object selected by the observer, and
A virtual image display device characterized by comprising.
前記表示制御手段は、前記車両の周辺の第1対象物に対応する前記第1オブジェクトを、前記車両と前記第1対象物の間の距離に応じて設定された前記第1距離に視認させ、且つ、前記車両の周辺の第2対象物に対応する前記第2オブジェクトを、前記車両と前記第2対象物の間の距離に応じて設定された前記第2距離に視認させるように前記表示手段に表示させることを特徴とする請求項1に記載の虚像表示装置。 The display control means visually recognizes the first object corresponding to the first object around the vehicle to the first distance set according to the distance between the vehicle and the first object. Moreover, the display means so that the second object corresponding to the second object around the vehicle is visually recognized at the second distance set according to the distance between the vehicle and the second object. The virtual image display device according to claim 1, wherein the object is displayed on the screen. 前記特定手段により前記観察者が選択したオブジェクトが特定された後に、前記観察者が前記手を伸ばした方向とは異なる方向に前記手を払うジェスチャを認識した際に、前記選択されたオブジェクトに関連する処理を実行する実行手段をさらに備えることを特徴とする請求項1または2に記載の虚像表示装置。 When the observer recognizes the gesture of paying the hand in a direction different from the direction in which the hand is reached after the object selected by the observer is specified by the specific means, the object is related to the selected object. The virtual image display device according to claim 1 or 2, further comprising an execution means for executing the processing. 車両に搭載される虚像表示装置が実行する制御方法であって、
第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御工程と、
前記車両の座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出工程と、
記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接してない場合には、前記手を伸ばした方向に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定し、
記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接している場合には、前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定工程と、
を有することを特徴とする制御方法。
It is a control method executed by the virtual image display device mounted on the vehicle .
A display control step of simultaneously displaying a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance as a virtual image on a display means.
A detection step of detecting the direction in which the observer sitting on the seat of the vehicle and visually recognizing the virtual image reaches out, and the gesture length corresponding to the distance reached out.
If the direction in which the first object is displayed and the direction in which the second object is displayed are not close to each other, the first object or the second object is based on the direction in which the hand is reached. Is specified as the object selected by the observer, and
When the direction in which the first object is displayed and the direction in which the second object is displayed are close to each other , the first object is based on the direction in which the hand is reached and the gesture length. Alternatively, a specific step of specifying any of the second objects as an object selected by the observer, and
A control method characterized by having.
車両に搭載されるコンピュータが実行するプログラムであって、
第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御手段と、
前記車両の座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出手段と、
記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接してない場合には、前記手を伸ばした方向に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定し、
記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接している場合には、前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段
として前記コンピュータを機能させるプログラム。
A program executed by a computer installed in a vehicle .
A display control means for simultaneously displaying a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance as a virtual image on a display means.
A detection means for detecting the direction in which the observer who sits on the seat of the vehicle and visually recognizes the virtual image reaches out, and the gesture length corresponding to the distance reached out.
If the direction in which the first object is displayed and the direction in which the second object is displayed are not close to each other, the first object or the second object is based on the direction in which the hand is reached. Is specified as the object selected by the observer, and
When the direction in which the first object is displayed and the direction in which the second object is displayed are close to each other , the first object is based on the direction in which the hand is reached and the gesture length. Alternatively, a program that causes the computer to function as a specific means for identifying any of the second objects as an object selected by the observer.
請求項5に記載のプログラムを記憶した記憶媒体。 A storage medium that stores the program according to claim 5.
JP2020178815A 2020-10-26 2020-10-26 Virtual image display device, control method, program, and storage medium Active JP7100100B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020178815A JP7100100B2 (en) 2020-10-26 2020-10-26 Virtual image display device, control method, program, and storage medium
JP2022106026A JP2022121625A (en) 2020-10-26 2022-06-30 Virtual image display device, control method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020178815A JP7100100B2 (en) 2020-10-26 2020-10-26 Virtual image display device, control method, program, and storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019031572A Division JP2019123503A (en) 2019-02-25 2019-02-25 Virtual image display apparatus, control method, program, and storage medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022106026A Division JP2022121625A (en) 2020-10-26 2022-06-30 Virtual image display device, control method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2021014262A JP2021014262A (en) 2021-02-12
JP7100100B2 true JP7100100B2 (en) 2022-07-12

Family

ID=74530328

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020178815A Active JP7100100B2 (en) 2020-10-26 2020-10-26 Virtual image display device, control method, program, and storage medium
JP2022106026A Pending JP2022121625A (en) 2020-10-26 2022-06-30 Virtual image display device, control method, program, and recording medium

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022106026A Pending JP2022121625A (en) 2020-10-26 2022-06-30 Virtual image display device, control method, program, and recording medium

Country Status (1)

Country Link
JP (2) JP7100100B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005138755A (en) 2003-11-07 2005-06-02 Denso Corp Device and program for displaying virtual images
JP2005301668A (en) 2004-04-12 2005-10-27 Seiko Epson Corp Information processor and information processing program
JP2006155172A (en) 2004-11-29 2006-06-15 Olympus Corp Input device
JP2010015553A (en) 2008-06-03 2010-01-21 Shimane Pref Gov Image recognition device, manipulation determination method, and program
JP2010146481A (en) 2008-12-22 2010-07-01 Brother Ind Ltd Head-mounted display
JP2012008808A (en) 2010-06-24 2012-01-12 Canon Inc Information processor
JP2012043195A (en) 2010-08-19 2012-03-01 Sony Corp Information processor, information processing method, and program
JP2012053557A (en) 2010-08-31 2012-03-15 Sony Corp Information processing unit, information processing method and program
JP2013079930A (en) 2012-02-07 2013-05-02 Pioneer Electronic Corp Head-up display, control method, and display device
JP2014056462A (en) 2012-09-13 2014-03-27 Toshiba Alpine Automotive Technology Corp Operation device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1097646A (en) * 1996-09-24 1998-04-14 Rekusaa Res:Kk Method and device for obtaining three dimensional space coordinate value in three-dimensional space display system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005138755A (en) 2003-11-07 2005-06-02 Denso Corp Device and program for displaying virtual images
JP2005301668A (en) 2004-04-12 2005-10-27 Seiko Epson Corp Information processor and information processing program
JP2006155172A (en) 2004-11-29 2006-06-15 Olympus Corp Input device
JP2010015553A (en) 2008-06-03 2010-01-21 Shimane Pref Gov Image recognition device, manipulation determination method, and program
JP2010146481A (en) 2008-12-22 2010-07-01 Brother Ind Ltd Head-mounted display
JP2012008808A (en) 2010-06-24 2012-01-12 Canon Inc Information processor
JP2012043195A (en) 2010-08-19 2012-03-01 Sony Corp Information processor, information processing method, and program
JP2012053557A (en) 2010-08-31 2012-03-15 Sony Corp Information processing unit, information processing method and program
JP2013079930A (en) 2012-02-07 2013-05-02 Pioneer Electronic Corp Head-up display, control method, and display device
JP2014056462A (en) 2012-09-13 2014-03-27 Toshiba Alpine Automotive Technology Corp Operation device

Also Published As

Publication number Publication date
JP2021014262A (en) 2021-02-12
JP2022121625A (en) 2022-08-19

Similar Documents

Publication Publication Date Title
EP2891953B1 (en) Eye vergence detection on a display
EP3213948B1 (en) Display control device and display control program
JP2016091192A (en) Virtual image display apparatus, control method, program, and storage medium
EP2936240B1 (en) Infotainment system
JP4366716B2 (en) Vehicle information display device
JP4946682B2 (en) Vehicle travel support device
JP2015231828A (en) Display device and movable body
JP2006350934A (en) Information display device
JP2008018760A (en) Driving support device
JP2016074410A (en) Head-up display device and head-up display display method
US20190088024A1 (en) Non-transitory computer-readable storage medium, computer-implemented method, and virtual reality system
CN108725321A (en) Information presentation device
WO2020105685A1 (en) Display control device, method, and computer program
KR101209796B1 (en) Display device for vehicle with foreground penetration function and display method of the same
WO2016056199A1 (en) Head-up display device, and display method for head-up display
JP6550690B2 (en) Display device, vehicle
JP7100100B2 (en) Virtual image display device, control method, program, and storage medium
KR20130119144A (en) Method and device for displaying object using transparent display panel
JP2019010919A (en) Travel support device and computer program
JP2007280203A (en) Information presenting device, automobile and information presenting method
JP2014174091A (en) Information providing device and information providing program
JP2014174880A (en) Information processor and information program
JP2019123503A (en) Virtual image display apparatus, control method, program, and storage medium
JP2023017641A (en) Vehicle display control device, vehicle display device, vehicle display control method, and vehicle display control program
JP6939147B2 (en) Driving information guidance device and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220630

R150 Certificate of patent or registration of utility model

Ref document number: 7100100

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150