JP7100100B2 - Virtual image display device, control method, program, and storage medium - Google Patents
Virtual image display device, control method, program, and storage medium Download PDFInfo
- Publication number
- JP7100100B2 JP7100100B2 JP2020178815A JP2020178815A JP7100100B2 JP 7100100 B2 JP7100100 B2 JP 7100100B2 JP 2020178815 A JP2020178815 A JP 2020178815A JP 2020178815 A JP2020178815 A JP 2020178815A JP 7100100 B2 JP7100100 B2 JP 7100100B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual image
- distance
- displayed
- observer
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 17
- 238000001514 detection method Methods 0.000 claims description 35
- 230000003287 optical effect Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000007688 edging Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Instrument Panels (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、虚像を表示する技術に関する。 The present invention relates to a technique for displaying a virtual image.
従来から、ヘッドアップディスプレイにおいて、ユーザのジェスチャに応じて表示内容を変更する技術が知られている。例えば、特許文献1には、運転者の目を撮影する視点検知用カメラと、運転者の手を撮影するジェスチャ検知用カメラを備え、運転者が指先で表示虚像を指し示す動作をすると、運転者の目位置と指先位置を検出することにより運転者の視線上にある虚像を特定し、さらに所定の動作を検出すると特定した虚像を消去するヘッドアップディスプレイが開示されている。また、特許文献2には、フロントウィンドウに少なくとも2つの虚像を同時に表示でき、かつ、表示サイズおよびドライバの虚像に対する焦点距離を各虚像でそれぞれ異なるようにすることが可能なヘッドアップディスプレイが開示されている。
Conventionally, in a head-up display, a technique of changing the display content according to a user's gesture has been known. For example,
虚像距離が異なる虚像を表示可能なヘッドアップディスプレイなどの虚像表示装置において、表示する各虚像の虚像距離は離れているものの、表示される方向が近い場合には、特許文献1に記載の方法では、ユーザが指し示す虚像を特定することが困難である。そこで、本発明は、ユーザが虚像に対してジェスチャを行う際に、表示される虚像の方向が近い場合であっても、ユーザが指し示す虚像を的確に特定することが可能な虚像表示装置を提供することを主な目的とする。
In a virtual image display device such as a head-up display capable of displaying virtual images having different virtual image distances, if the virtual image distances of the displayed virtual images are different, but the display directions are close, the method described in
請求項に記載の発明は、車両に搭載される虚像表示装置であって、
第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御手段と、
前記車両の座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出手段と、
前記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接していない場合には、前記手を伸ばした方向に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定し、
前記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接している場合には、前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段と、
を備えることを特徴とする。
The invention described in the claims is a virtual image display device mounted on a vehicle .
A display control means for simultaneously displaying a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance as a virtual image on a display means.
A detection means for detecting the direction in which the observer who sits on the seat of the vehicle and visually recognizes the virtual image reaches out, and the gesture length corresponding to the distance reached out.
If the direction in which the first object is displayed and the direction in which the second object is displayed are not close to each other, the first object or the second object is based on the direction in which the hand is reached. Is specified as the object selected by the observer, and
When the direction in which the first object is displayed and the direction in which the second object is displayed are close to each other , the first object is based on the direction in which the hand is reached and the gesture length. Alternatively, a specific means for identifying any of the second objects as the object selected by the observer, and
It is characterized by having.
また、請求項に記載の発明は、車両に搭載される虚像表示装置が実行する制御方法であって、
第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御工程と、
前記車両の座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出工程と、
前記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接していない場合には、前記手を伸ばした方向に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定し、
前記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接している場合には、前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定工程と、
を有することを特徴とする。
Further, the invention described in the claims is a control method executed by a virtual image display device mounted on a vehicle .
A display control step of simultaneously displaying a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance as a virtual image on a display means.
A detection step of detecting the direction in which the observer sitting on the seat of the vehicle and visually recognizing the virtual image reaches out, and the gesture length corresponding to the distance reached out.
If the direction in which the first object is displayed and the direction in which the second object is displayed are not close to each other, the first object or the second object is based on the direction in which the hand is reached. Is specified as the object selected by the observer, and
When the direction in which the first object is displayed and the direction in which the second object is displayed are close to each other , the first object is based on the direction in which the hand is reached and the gesture length. Alternatively, a specific step of specifying any of the second objects as an object selected by the observer, and
It is characterized by having.
また、請求項に記載の発明は、車両に搭載されるコンピュータが実行するプログラムであって、
第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御手段と、
前記車両の座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出手段と、
前記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接していない場合には、前記手を伸ばした方向に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定し、
前記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接している場合には、前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段
として前記コンピュータを機能させることを特徴とする。
Further, the invention described in the claims is a program executed by a computer mounted on a vehicle .
A display control means for simultaneously displaying a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance as a virtual image on a display means.
A detection means for detecting the direction in which the observer who sits on the seat of the vehicle and visually recognizes the virtual image reaches out, and the gesture length corresponding to the distance reached out.
If the direction in which the first object is displayed and the direction in which the second object is displayed are not close to each other, the first object or the second object is based on the direction in which the hand is reached. Is specified as the object selected by the observer, and
When the direction in which the first object is displayed and the direction in which the second object is displayed are close to each other , the first object is based on the direction in which the hand is reached and the gesture length. Alternatively, the computer is made to function as a specific means for identifying any of the second objects as an object selected by the observer.
本発明の1つの好適な実施形態では、虚像表示装置は、第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御手段と、前記虚像を視認する観察者が手を伸ばした距離を検出する検出手段と、前記観察者が手を伸ばした距離に基づいて、前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段と、を備える。 In one preferred embodiment of the present invention, the imaginary image display device simultaneously displays a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance as imaginary images. Based on the display control means to be displayed on the screen, the detection means for detecting the distance reached by the observer who visually recognizes the imaginary image, and the distance reached by the observer, the first object or the second object. It is provided with a specific means for identifying any of the above as an object selected by the observer.
上記虚像表示装置は、表示制御手段と、検出手段と、特定手段とを備える。表示制御手段は、第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示部に表示する。検出手段は、虚像を視認する観察者が手を伸ばした距離を検出する。特定手段は、観察者が手を伸ばした距離に基づいて、第1オブジェクトまたは第2オブジェクトのいずれかを、観察者が選択したオブジェクトとして特定する。この構成によれば、虚像表示装置は、虚像距離の異なる2つのオブジェクトを表示手段に虚像として表示させた場合に、観察者が選択したオブジェクトを、観察者が手を伸ばした距離に基づいて好適に特定することができる。 The virtual image display device includes display control means, detection means, and specific means. The display control means simultaneously displays the first object to be visually recognized at the first distance and the second object to be visually recognized at the second distance farther than the first distance as virtual images on the display unit. The detecting means detects the distance reached by the observer who visually recognizes the virtual image. The identifying means identifies either the first object or the second object as the object selected by the observer, based on the distance reached by the observer. According to this configuration, the virtual image display device is suitable based on the distance reached by the observer to display the object selected by the observer when two objects having different virtual image distances are displayed as virtual images by the display means. Can be specified in.
上記虚像表示装置の一態様では、前記検出手段は、さらに前記観察者が手を伸ばした方向を検出し、前記特定手段は、前記観察者が手を伸ばした方向から所定範囲内に前記第1オブジェクトおよび前記第2オブジェクトに対応する前記虚像の表示位置が含まれる場合に、前記観察者が手を伸ばした距離に基づいて、前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する。この態様により、虚像表示装置は、観察者が手を伸ばした方向に複数のオブジェクトが表示されていた場合であっても、観察者が選択したオブジェクトを、観察者が手を伸ばした距離に基づいて好適に特定することができる。 In one aspect of the imaginary image display device, the detection means further detects the direction in which the observer reaches out, and the specific means is the first within a predetermined range from the direction in which the observer reaches out. When the display position of the virtual image corresponding to the object and the second object is included, the observer can see either the first object or the second object based on the distance reached by the observer. Identifies as the selected object. According to this aspect, the virtual image display device is based on the distance at which the observer reaches for the object selected by the observer, even if a plurality of objects are displayed in the direction in which the observer reaches out. Can be suitably specified.
上記虚像表示装置の他の一態様では、前記特定手段は、前記観察者が手を伸ばした距離が基準距離よりも短い場合に、前記第1オブジェクトを前記観察者が選択したオブジェクトとして特定し、前記観察者が手を伸ばした距離が前記基準距離よりも長い場合に、前記第2オブジェクトを前記観察者が選択したオブジェクトとして特定する。この態様では、虚像表示装置は、遠くに表示された第2オブジェクトを観察者が選択する際には、近くに表示された第1オブジェクトを選択する場合よりも手を伸ばすべき距離を長く設定する。これにより、オブジェクトを選択する操作を、見た目の虚像の距離感と一致させて観察者に好適に実行させることができる。 In another aspect of the imaginary image display device, the identifying means identifies the first object as an object selected by the observer when the distance reached by the observer is shorter than the reference distance. When the distance reached by the observer is longer than the reference distance, the second object is specified as the object selected by the observer. In this aspect, the virtual image display device sets a longer distance to reach when the observer selects a second object displayed far away than when selecting a first object displayed closer. .. As a result, the operation of selecting an object can be suitably performed by the observer in accordance with the sense of distance of the apparent virtual image.
上記虚像表示装置の他の一態様では、前記特定手段は、前記第1距離および前記第2距離に応じて、前記基準距離を変化させる。この態様により、虚像表示装置は、オブジェクトを選択する操作を、見た目の虚像の距離感と一致させて観察者に好適に実行させることができる。 In another aspect of the virtual image display device, the specific means changes the reference distance according to the first distance and the second distance. According to this aspect, the virtual image display device can make the observer preferably perform the operation of selecting an object in accordance with the sense of distance of the apparent virtual image.
上記虚像表示装置の他の一態様では、前記特定手段は、前記基準距離を含む所定距離範囲に前記観察者が手を伸ばした距離が含まれる場合は、前記第1オブジェクトおよび前記第2オブジェクトのいずれも前記観察者が選択したオブジェクトとして特定しない。この態様により、虚像表示装置は、観察者が選択したオブジェクトを誤認識するのを好適に抑制することができる。 In another aspect of the virtual image display device, the specific means of the first object and the second object when the predetermined distance range including the reference distance includes the distance reached by the observer. Neither is specified as an object selected by the observer. According to this aspect, the virtual image display device can suitably suppress the erroneous recognition of the object selected by the observer.
上記虚像表示装置の他の一態様では、虚像表示装置は、前記観察者のジェスチャを認識する認識手段と、前記特定手段により前記観察者が選択したオブジェクトが特定された後に、前記認識手段により所定のジェスチャが認識された際に、前記選択されたオブジェクトに関連する処理を実行する実行手段と、をさらに備える。この態様により、虚像表示装置は、ユーザが選択したオブジェクトに関連する処理を、ユーザのジェスチャに応じて好適に実行することができる。 In another aspect of the virtual image display device, the virtual image display device is determined by the recognition means after the recognition means for recognizing the gesture of the observer and the object selected by the observer are specified by the specific means. Further includes an execution means for executing a process related to the selected object when the gesture of the above is recognized. According to this aspect, the virtual image display device can suitably perform the processing related to the object selected by the user according to the gesture of the user.
本発明の他の好適な実施形態では、虚像表示装置が実行する制御方法であって、第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御工程と、前記虚像を視認する観察者が手を伸ばした距離を検出する検出工程と、前記観察者が手を伸ばした距離に基づいて、前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定工程と、を有する。虚像表示装置は、この制御方法を実行することで、虚像距離の異なる2つのオブジェクトを表示手段に虚像として表示させた場合に、観察者が選択したオブジェクトを、観察者が手を伸ばした距離に基づいて好適に特定することができる。 In another preferred embodiment of the present invention, the control method executed by the imaginary image display device includes a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance. Is displayed on the display means at the same time as an imaginary image, a detection step of detecting the distance reached by the observer who visually recognizes the imaginary image, and the first step based on the distance reached by the observer. It has a specific step of identifying either one object or the second object as an object selected by the observer. By executing this control method, the virtual image display device causes the display means to display two objects having different virtual image distances as virtual images, and the object selected by the observer is set to the distance reached by the observer. It can be suitably specified based on this.
本発明のさらに別の実施形態では、コンピュータが実行するプログラムであって、第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御手段と、前記虚像を視認する観察者が手を伸ばした距離を検出する検出手段と、前記観察者が手を伸ばした距離に基づいて、前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段として前記コンピュータを機能させる。コンピュータは、このプログラムを実行することで、虚像距離の異なる2つのオブジェクトを表示手段に虚像として表示させた場合に、観察者が選択したオブジェクトを、観察者が手を伸ばした距離に基づいて好適に特定することができる。好適には、上記プログラムは、記憶媒体に記憶される。 In still another embodiment of the present invention, a program executed by a computer, in which a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance are regarded as imaginary images. The first object or the said The computer is made to function as a specific means for identifying any of the second objects as the object selected by the observer. When the computer executes this program to display two objects with different virtual image distances as virtual images on the display means, the object selected by the observer is suitable based on the distance reached by the observer. Can be specified in. Preferably, the program is stored in a storage medium.
以下、図面を参照して本発明の好適な実施例について説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
[システム構成]
図1は、実施例に係るヘッドアップディスプレイシステム2の構成例である。図1に示すように、本実施例に係るヘッドアップディスプレイシステム2は、2つの虚像を同時に表示し、かつ、ジェスチャによる操作が可能であって、主に、第1及び第2ディスプレイ41、42(区別しない場合、「ディスプレイ4」と総称する。)と、車室内撮影カメラ6と、凹面鏡8と、図示しない後述の制御部とを備える。そして、ヘッドアップディスプレイシステム2は、フロントウィンドウ25と、天井部27と、ボンネット28と、ダッシュボード29とを備える車両に取り付けられる。
[System configuration]
FIG. 1 is a configuration example of the head-up display system 2 according to the embodiment. As shown in FIG. 1, the head-up display system 2 according to the present embodiment displays two virtual images at the same time and can be operated by gestures, and is mainly operated by the first and
第1及び第2ディスプレイ41、42は、ダッシュボード29内に設けられ、施設情報や経路案内情報、走行速度情報、その他運転を補助する情報を示す画像を表示する。第1ディスプレイ41は、第2ディスプレイ42から凹面鏡8までの光路を遮らない位置に設置される。第1及び第2ディスプレイ41、42は、同じくダッシュボード29内に設けられた凹面鏡8に向けられており、第1及び第2ディスプレイ41、42から射出された光(「表示光」とも呼ぶ。)は、凹面鏡8に入射する。この場合、凹面鏡8で反射した光は、ダッシュボード29に設けられた開口部89を介してフロントウィンドウ25へ到達し、さらにフロントウィンドウ25で反射することで運転者の目の位置に到達する。図1は、第1ディスプレイ41から射出された光の光路を破線、第2ディスプレイ42から射出された光の光路を一点鎖線により示している。
The first and
このように、第1及び第2ディスプレイ41、42は、表示光を運転者の目の位置へ到達させて、運転者に、それぞれ虚像Iv1、Iv2を視認させる。以後では、虚像Iv1として表示される画像を「第1オブジェクトOb1」、虚像Iv2として表示される画像を「第2オブジェクトOb2」、これらを区別しない場合には単に「オブジェクト」とも呼ぶ。
In this way, the first and
ここで、運転者の目の位置から虚像までの距離(単に「虚像距離」とも呼ぶ。)は、ディスプレイ4からフロントウィンドウ25までの光路長に応じて異なる。図1の例では、第2ディスプレイ42は、第1ディスプレイ41よりも凹面鏡8に対して離れた位置に設置されているため、虚像Iv2の虚像距離は、虚像Iv1の虚像距離よりも長くなっている。虚像Iv1の虚像距離は、本発明における「第1距離」の一例であり、虚像Iv2の虚像距離は、本発明における「第2距離」の一例である。
Here, the distance from the position of the driver's eyes to the virtual image (also simply referred to as “virtual image distance”) varies depending on the optical path length from the
なお、第1及び第2ディスプレイ41、42は、液晶ディスプレイの他、画像を構成する光が投影されて中間像が表示されるスクリーンであってもよい。ディスプレイ4、凹面鏡8、及びフロントウィンドウ25は、本発明における「表示手段」の一例である。また、第1ディスプレイ41または第2ディスプレイ42の少なくとも一方は、凹面鏡8との距離をユーザが調整できるように移動自在に構成されていてもよい。
In addition to the liquid crystal display, the first and
車室内撮影カメラ6は、車室内を撮影するカメラであり、運転席に座る運転者の顔及び手が撮影範囲内になるように設置される。車室内撮影カメラ6が撮影した画像(「撮影画像Im」とも呼ぶ。)は、運転者の手の3次元位置を計測するのに用いられる。車室内撮影カメラ6は、好適には、ステレオカメラである。 The vehicle interior photographing camera 6 is a camera that photographs the vehicle interior, and is installed so that the face and hands of the driver sitting in the driver's seat are within the photographing range. The image taken by the vehicle interior photographing camera 6 (also referred to as “photographed image Im”) is used to measure the three-dimensional position of the driver's hand. The vehicle interior photographing camera 6 is preferably a stereo camera.
凹面鏡8は、第1ディスプレイ41及び第2ディスプレイ42から射出された表示光を、ダッシュボード29に設けられた開口部89に向けて反射し、フロントウィンドウ25へ到達させる。この場合、凹面鏡8は、表示光が示す画像を拡大して反射する。なお、凹面鏡8は、第1ディスプレイ41及び第2ディスプレイ42の各々に対してそれぞれ設けられてもよい。ここで、第1ディスプレイ41から凹面鏡8までの光路長は、第2ディスプレイ42から凹面鏡8までの光路長よりも短いことから、虚像Iv1は、虚像Iv2よりも虚像距離が短くなる。
The concave mirror 8 reflects the display light emitted from the
なお、以後では、運転者を操作者とする場合について説明するが、他の乗員が操作者であってもよい。この場合であっても、車室内撮影カメラ6は、操作者の顔及び手が撮影範囲内になるように向けられる。 In the following, a case where the driver is the operator will be described, but another occupant may be the operator. Even in this case, the vehicle interior photographing camera 6 is directed so that the operator's face and hands are within the photographing range.
[機能構成]
ヘッドアップディスプレイシステム2は、ヘッドアップディスプレイシステム2を制御する制御部を車室内の任意の位置に有する。図2は、ヘッドアップディスプレイシステム2の制御部10の機能的な構成を表すブロック図である。図2に示すように、制御部10は、ディスプレイ4及び車室内撮影カメラ6と電気的に接続し、表示制御部11と、ジェスチャ検出部12と、対象特定部13とを有する。なお、表示制御部11と、ジェスチャ検出部12と、対象特定部13は、一体に構成されていてもよく、電気的に接続した状態でそれぞれ離れた場所に設置されていてもよい。
[Functional configuration]
The head-up display system 2 has a control unit that controls the head-up display system 2 at an arbitrary position in the vehicle interior. FIG. 2 is a block diagram showing a functional configuration of the
表示制御部11は、第1ディスプレイ41及び第2ディスプレイ42の各々に表示させるオブジェクトを表す画像信号を生成する。例えば、表示制御部11は、オブジェクトとして施設の位置を示すマーク画像を表示する場合、図示しないGPS受信機の出力や地図データ等に基づき、フロントウィンドウ25を介して運転者が視認可能な位置に存在する施設を認識し、当該施設を表すマーク画像を表す画像信号を生成する。このとき、表示制御部11は、虚像Iv1、Iv2の各虚像距離を予め記憶しておき、各虚像距離と、車両からマーク画像を表示する施設までの距離とに応じて、第1ディスプレイ41または第2ディスプレイ42のいずれにマーク画像を表示させるか決定する。
The
また、表示制御部11は、虚像として表示させるオブジェクトに関する情報(「オブジェクト情報Io」とも呼ぶ。)を、対象特定部13へ供給する。ここで、オブジェクト情報Ioは、例えば、フロントウィンドウ25上での位置及び形状の情報、虚像として表示される際の虚像距離の情報、ジェスチャ操作可能であるか否かを示す情報などを含む。なお、表示制御部11は、オブジェクト情報Ioを生成する場合、オブジェクトの種類に基づき、各オブジェクトがジェスチャ操作可能であるか否かを判定してもよい。例えば、オブジェクトがマーク画像の場合、表示制御部11は、マーク画像が示す施設の詳細情報を地図データ等から抽出可能であることから、ジェスチャ操作可能であると判断する。
Further, the
なお、表示制御部11は、マーク画像以外に、距離を示す画像、ルート案内の矢印の画像などの種々の画像をオブジェクトとして表示してもよい。この場合、表示制御部11は、例えば、表示する情報の種類ごとに、第1ディスプレイ41または第2ディスプレイ42のいずれで表示するかを決定してもよい。
In addition to the mark image, the
ジェスチャ検出部12は、車室内撮影カメラ6から供給される撮影画像Imを基に運転者のジェスチャを認識する。本実施例では、ジェスチャ検出部12は、公知の画像認識処理に基づき、指差す動作を検出した場合に、伸ばした手の長さ(「ジェスチャ長Ltag」とも呼ぶ。)と、指差した方向(「指差方向Dtag」とも呼ぶ。)を検出する。例えば、ジェスチャ検出部12は、運転者の顏(目)の位置と、手(指)の位置を認識し、検出した顔と手との距離を、ジェスチャ長Ltagとして算出する。また、ジェスチャ検出部12は、顔の位置に対する手の位置の方向を、指差方向Dtagとして算出する。なお、車室内撮影カメラ6がステレオカメラでない単眼カメラの場合には、ジェスチャ検出部12は、ダッシュボード29上に設けられた図示しない複数の距離センサの計測値と、撮影画像Imとに基づき、ジェスチャ長Ltagを算出してもよい。ジェスチャ検出部12は、ジェスチャ長Ltag及び指差方向Dtagの情報を、対象特定部13へ供給する。
The
対象特定部13は、表示制御部11から受信したオブジェクト情報Io及びジェスチャ検出部12から通知されたジェスチャ長Ltag及び指差方向Dtagに基づき、運転者が操作可能なオブジェクトのうち、運転者が指し示したオブジェクトを特定する。具体的には、対象特定部13は、まず、オブジェクト情報Io及び指差方向Dtagに基づき、運転者の顔と手を結ぶ方向の周辺に表示されたオブジェクトを特定する。この時、対象特定部13は、オブジェクト情報Ioを参照し、ジェスチャ操作できないオブジェクトを、特定の対象から除外する。また、対象特定部13は、指差方向Dtagの周辺に、虚像Iv1として表示される第1オブジェクトOb1と虚像Iv2として表示される第2オブジェクトOb2が存在した場合、ジェスチャ長Ltagに基づき、いずれのオブジェクトがジェスチャ操作の対象となったか判定する。この場合、対象特定部13は、ジェスチャ長Ltagの閾値(「閾値Lth」とも呼ぶ。)を予め記憶しておく。そして、対象特定部13は、ジェスチャ長Ltagが閾値Lth以上の場合には、虚像距離が長い第2オブジェクトOb2が操作対象であると判断し、ジェスチャ長Ltagが閾値Lthより短い場合には、虚像距離が短い第1オブジェクトOb1が操作対象であると判断する。そして、対象特定部13は、操作対象となったオブジェクトを認識した場合、当該オブジェクトを特定する情報を表示制御部11へ送信する。閾値Lthは、本発明における「基準距離」の一例である。
The
対象特定部13が操作対象のオブジェクトの認識後、表示制御部11は、対象特定部13が特定したオブジェクトの色を変化させるなどして強調表示することで、選択されたマーク画像を運転者に提示する。その状態から、運転者が手を横に払うなどの所定のジェスチャが行われたことをジェスチャ認識部12がさらに認識した場合には、表示制御部11は、ジェスチャ検出部12が認識したジェスチャに応じて、そのオブジェクトに関連する処理を実行する。具体的には、表示制御部11は、オブジェクトの表示を消去したり、当該オブジェクトに関する追加情報を表示したりする。
After the
なお、表示制御部11は、本発明における「表示制御手段」及び「実行手段」の一例であり、ジェスチャ検出部12は、本発明における「検出手段」及び「認識手段」の一例であり、対象特定部13は、本発明における「特定手段」の一例である。
The
[処理フロー]
図3は、本実施例において制御部10が実行する処理手順を示すフローチャートである。制御部10は、図3に示すフローチャートの処理を、繰り返し実行する。なお、図3では、前提として、表示制御部11は、マーク画像などのオブジェクトを第1ディスプレイ41または/及び第2ディスプレイ42に適宜表示すると共に、表示中のオブジェクトに対応するオブジェクト情報Ioを対象特定部13に送信しているものとする。
[Processing flow]
FIG. 3 is a flowchart showing a processing procedure executed by the
まず、ジェスチャ検出部12は、車室内撮影カメラ6から受信する撮影画像Im等に基づき、運転者が指差す動作を認識した場合に、手を伸ばした距離に相当するジェスチャ長Ltagと、手を伸ばした方向である指差方向Dtagとを検出する(ステップS101)。そして、ジェスチャ検出部12は、検出したジェスチャ長Ltagと指差方向Dtagの情報を対象特定部13に供給する。
First, the
次に、対象特定部13は、指差方向Dtag周辺に、操作可能なオブジェクトが表示されているか否か判定する(ステップS102)。具体的には、対象特定部13は、まず、表示制御部11から受信したオブジェクト情報Ioに基づき、ジェスチャ操作可能な表示中のオブジェクトの各々について、フロントウィンドウ25上の表示位置を認識する。そして、表示制御部11は、ジェスチャ検出部12から通知された指差方向Dtagが指し示すフロントウィンドウ25上の位置と、上述の表示位置とが近接するオブジェクトが存在するか否か判定する。
Next, the
そして、対象特定部13は、指差方向Dtagの周辺に操作可能なオブジェクトが表示されていると判断した場合(ステップS102;Yes)、ステップS103へ処理を進める。一方、対象特定部13は、指差方向Dtagの周辺に操作可能なオブジェクトが表示されていないと判断した場合(ステップS102;No)、オブジェクトに対する操作が行われていないと判断し、ステップS101へ処理を戻す。
Then, when the
次に、ステップS103では、対象特定部13は、虚像距離の異なるオブジェクトをステップS102で検出したか否か判定する(ステップS103)。即ち、対象特定部13は、指差方向Dtagの周辺に操作可能なオブジェクトが複数存在し、かつ、これらの虚像距離が異なっているか否か判定する。そして、対象特定部13は、ステップS102で検出したオブジェクトが虚像距離の異なるオブジェクトであった場合(ステップS103;Yes)、ステップS104へ処理を進める。一方、対象特定部13は、虚像距離の異なるオブジェクトを検出しなかった場合(ステップS103;No)、即ち、指差方向Dtagの周辺では虚像距離の異なるオブジェクトが重なって表示されていなかった場合には、指差方向Dtagの周辺の操作可能なオブジェクトが選択されたと認識する(ステップS108)。なお、対象特定部13は、虚像距離が同一の複数のオブジェクトをステップS102で検出した場合には、例えば、指差方向Dtagに最も中心位置が近いオブジェクトが選択されたと認識する。
Next, in step S103, the
次に、ステップS104では、対象特定部13は、虚像距離の異なる各オブジェクト(即ち第1オブジェクトOb1と第2オブジェクトOb2)の虚像距離に応じた閾値Lthを設定する(ステップS104)。この場合、対象特定部13は、第1オブジェクトOb1及び第2オブジェクトOb2の各虚像距離に基づき所定の式等を参照して閾値Lthを算出してもよく、予め算出された閾値Lthをメモリから抽出して使用してもよい。そして、対象特定部13は、ステップS101で検出したジェスチャ長Ltagが閾値Lth以上であるか否か判定する(ステップS105)。そして、対象特定部13は、ジェスチャ長Ltagが閾値Lth以上である場合(ステップS105;Yes)、虚像距離が遠い方のオブジェクトである第2オブジェクトOb2が選択されたと認識する(ステップS106)。一方、対象特定部13は、ジェスチャ長Ltagが閾値Lth未満である場合(ステップS105;No)、虚像距離が近い方のオブジェクトである第1オブジェクトOb1が選択されたと認識する(ステップS107)。
Next, in step S104, the
そして、表示制御部11は、ステップS106~S108で対象特定部13が指差し動作により選択されたと認識したオブジェクトを強調表示する(ステップS109)。その後、ジェスチャ検出部12は、選択されたオブジェクトに対する所定のジェスチャ操作をさらに検出した場合には、検出したジェスチャ操作に応じて、選択されたオブジェクトの追加情報を表示したり、表示を消去したりする。
Then, the
[表示例]
図4は、施設名称を表示するマーク画像を運転者がジェスチャにより選択して施設の詳細情報を表示する際の、ジェスチャの実行前後でのフロントウィンドウ25の表示例を示す。
[Display example]
FIG. 4 shows a display example of the
図4(A)に示すように、表示制御部11は、交差点手前にある建物の施設名「Aストア」を表すマーク画像51を表示すると共に、Aストアの道路向かいにある建物の施設名「Bマート」を表すマーク画像52を虚像として表示している。この場合、表示制御部11は、施設名「Aストア」の建物が虚像Iv1の虚像距離(例えば10m)と所定距離以内であることから、マーク画像51を第1ディスプレイ41により第1オブジェクトOb1(即ち虚像Iv1)として表示する。また、表示制御部11は、施設名「Bストア」の建物が虚像Iv2の虚像距離(例えば30m)と所定距離以内であることから、マーク画像52を第2ディスプレイ42により第2オブジェクトOb2(即ち虚像Iv2)として表示する。
As shown in FIG. 4A, the
ここで、マーク画像51とマーク画像52とのフロントウィンドウ25上での表示位置は近い。従って、図4(A)の状態で、マーク画像51または52のいずれかを運転者が指差した場合、対象特定部13は、マーク画像51、52の2つが指差方向Dtagの周辺にあるオブジェクトであると認識する。この場合、対象特定部13は、虚像Iv1、Iv2の各虚像距離に応じて設定した閾値Lthと、ジェスチャ検出部12が検出したジェスチャ長Ltagとを比較することで、マーク画像51、52のいずれが選択されたか判定する。
Here, the display positions of the
そして、図4(B)の例では、対象特定部13は、ジェスチャ長Ltagが閾値Lth以上であることから、マーク画像52が指差し動作により選択されたと認識し、選択されたマーク画像52に対して縁取り効果を付すことで強調表示する。さらに、指差し動作の認識後、ジェスチャ検出部12が所定のジェスチャをさらに検出したことにより、表示制御部11は、マーク画像52に対応する施設「Bマート」の営業時間などの詳細情報を示した画像53を、地図データ等を参照することで表示する。このとき、好適には、表示制御部11は、選択されたマーク画像52と同じ虚像距離により、即ち第2ディスプレイ42により、画像53を表示するとよい。
Then, in the example of FIG. 4B, since the gesture length Ltag is equal to or greater than the threshold value Lth, the
以上説明したように、本実施例に係るヘッドアップディスプレイシステム2の表示制御部11は、第1オブジェクトOb1と、第1オブジェクトOb2の虚像距離より遠い虚像距離により視認される第2オブジェクトOb2とを、それぞれ虚像Iv1、Iv2として同時にフロントウィンドウ25上に表示する。ジェスチャ検出部12は、虚像を視認する観察者が手を伸ばした距離であるジェスチャ長Ltagを検出する。対象特定部13は、ジェスチャ長Ltagに基づいて、第1オブジェクトOb1または第2オブジェクトOb2のいずれかを、観察者が選択したオブジェクトとして特定する。この構成によれば、ヘッドアップディスプレイシステム2は、虚像距離の異なる2つの第1及び第2オブジェクトOb1、Ob2をそれぞれ虚像Iv1、Iv2として表示させた場合に、観察者が選択したオブジェクトを、観察者が手を伸ばした距離に基づいて好適に特定することができる。
As described above, the
[変形例]
以下、上述の実施例に好適な変形例について説明する。以下の変形例は、任意に組み合わせて上述の実施例に適用してもよい。
[Modification example]
Hereinafter, a modification suitable for the above-mentioned embodiment will be described. The following modifications may be applied to the above-described embodiment in any combination.
(変形例1)
図1の例では、ヘッドアップディスプレイシステム2は、ディスプレイ4として、第1ディスプレイ41と第2ディスプレイ42の2つを備えていた。これに代えて、ヘッドアップディスプレイシステム2は、3以上のディスプレイ4を有してもよい。この場合、各ディスプレイ4は、凹面鏡8との距離がそれぞれ異なるように設置され、各ディスプレイ4に表示されるオブジェクトは、それぞれ異なる虚像距離となる虚像として表示される。
(Modification 1)
In the example of FIG. 1, the head-up display system 2 includes two
図5は、ヘッドアップディスプレイシステム2がディスプレイ4を3つ備える場合のフロントウィンドウ25上での表示例を示す。図5の例では、各ディスプレイ4は、それぞれ、表示するオブジェクトの虚像距離が10m、20m、30mになるように、凹面鏡8との距離が調整されて、ダッシュボード29内に設置されている。
FIG. 5 shows a display example on the
図5では、表示制御部11は、最も短い虚像距離(10m)となる虚像を表示するディスプレイ4により、当該虚像距離と略同一距離だけ前方にある施設「Aストア」のマーク画像51を表示し、最も長い虚像距離(30m)となる虚像を表示するディスプレイ4により、当該虚像距離と略同一距離だけ前方に視認される施設「Bストア」のマーク画像52を表示している。さらに表示制御部11は、これらの中間の虚像距離(20m)となる虚像を表示するディスプレイ4により、当該虚像と略同一距離だけ前方に視認される交差点に重ねて、進行方向を示す矢印画像54を表示している。
In FIG. 5, the
なお、図5の例では、表示制御部11は、矢印画像54のオブジェクト情報Ioを生成する場合、ジェスチャ操作が不可である旨の情報をオブジェクト情報Ioに含めて対象特定部13に送信する。これにより、対象特定部13は、指差方向Dtagの周辺に矢印画像54が存在すると判断した場合であっても、指差し動作による選択対象として矢印画像54を認識しない。一方、対象特定部13は、指差方向Dtagの周辺にマーク画像51、52が存在すると判断した場合、後述する2つの閾値Lthに基づき、検出したジェスチャ長Ltagからいずれが選択されたか判定する。
In the example of FIG. 5, when the
次に、ディスプレイ4が3つ存在する場合の閾値Lthの設定方法について説明する。
Next, a method of setting the threshold value Lth when three
対象特定部13は、ジェスチャ長Ltagに関して閾値Lthを2つ設定することで、虚像距離が最も長いオブジェクトが選択されたと判定する範囲、虚像距離が2番目に長いオブジェクトが選択されたと判定する範囲、及び虚像距離が最も短いオブジェクトが選択されたと判定する範囲とをそれぞれ設ける。以後では、2つの閾値Lthのうち小さい方の閾値Lthを「第1閾値Lth1」と呼び、大きい方の閾値Lthを「第2閾値Lth2」とも呼ぶ。
The
図6は、伸ばした手の位置と、各手の位置で選択される虚像との関係を示す図である。図6の例では、ヘッドアップディスプレイシステム2は、虚像距離がそれぞれ異なる虚像Iv1~Iv3を、指差方向Dtagの周辺に表示している。また、反応範囲R1~R3は、第1閾値Lth1及び第2閾値Lth2により分けられたジェスチャ長Ltagの範囲を示す。 FIG. 6 is a diagram showing the relationship between the position of the extended hand and the virtual image selected at the position of each hand. In the example of FIG. 6, the head-up display system 2 displays virtual images Iv1 to Iv3 having different virtual image distances around the pointing direction Dtag. Further, the reaction ranges R1 to R3 indicate the range of the gesture length Ltag divided by the first threshold value Lth1 and the second threshold value Lth2.
図6の例では、対象特定部13は、虚像Iv1~Iv3の方向を指差すジェスチャをジェスチャ検出部12が検出した際に、検出したジェスチャ長Ltagが反応範囲R1に属する場合には、虚像Iv1に相当するオブジェクトが選択されたと認識する。また、対象特定部13は、検出したジェスチャ長Ltagが反応範囲R2に属する場合には、虚像Iv2に相当するオブジェクトが選択されたと認識する。同様に、対象特定部13は、検出したジェスチャ長Ltagが反応範囲R3に属する場合には、虚像Iv3に相当するオブジェクトが選択されたと認識する。
In the example of FIG. 6, when the
このように、虚像距離が異なる3つの虚像が表示された場合であっても、対象特定部13は、ジェスチャ長Ltagに基づき、ユーザがジェスチャにより選択したオブジェクトを的確に認識することができる。なお、ディスプレイ4が4つ以上存在する場合についても、ディスプレイ4の数に応じて閾値Lthを設定することで、ユーザがジェスチャにより選択したオブジェクトを的確に認識することができる。
In this way, even when three virtual images having different virtual image distances are displayed, the
また、好適には、対象特定部13は、設定した閾値Lthを含む近傍範囲にジェスチャ長Ltagが属する場合には、ジェスチャ長Ltagと閾値Lthとの大小関係に関わらず、オブジェクトを選択する操作がなされていないと見なしてもよい。
Further, preferably, when the gesture length Ltag belongs to the neighborhood range including the set threshold value Lth, the
図7は、図6に示した反応範囲R1~R3の間に、オブジェクトを選択する操作がなされていないと見なす非反応範囲NR1、NR2を設けた場合の各範囲とジェスチャ長Ltagとの関係を示す。 FIG. 7 shows the relationship between each range and the gesture length Ltag when the non-reaction ranges NR1 and NR2, which are considered not to have been operated to select an object, are provided between the reaction ranges R1 to R3 shown in FIG. show.
図7の例では、対象特定部13は、非反応範囲NR1を、第1閾値Lth1の前後の所定距離以内の近傍範囲に設定し、非反応範囲NR2を、第2閾値Lth2の前後の所定距離以内の近傍範囲に設定している。そして、対象特定部13は、ジェスチャ長Ltagが非反応範囲NR1、NR2のいずれかに属する場合には、指差し動作が無効であるとみなす。
In the example of FIG. 7, the
このように、ジェスチャ検出部12は、非反応範囲NR1、NR2を設けることで、オブジェクトを選択する操作の誤認識を好適に抑制することができる。なお、図7の例では、ディスプレイ4が3つ存在する場合について述べたが、ディスプレイ4が2つの場合、又は、ディスプレイ4が4つ以上の場合においても同様に、非反応範囲を設けてもよい。この場合であっても、対象特定部13は、各閾値Lthの近傍範囲をオブジェクトの選択操作を受け付けない範囲に設定することで、オブジェクトの選択操作の誤認識を好適に抑制することができる。
As described above, the
また、対象特定部13は、第1閾値Lth1及び第2閾値Lth2を、虚像Iv1~Iv3の虚像距離に応じて設定してもよく、虚像Iv1~Iv3の虚像距離によらずに設定してもよい。
Further, the
図8は、運転者の視線方向における虚像Iv1~Iv3の位置と、反応範囲R1~R3及び非反応範囲NR1、NR2との関係を示す。具体的には、図8(A)は、運転者の視線方向における虚像Iv1~Iv3の位置関係を示し、図8(B)は、虚像Iv1~Iv3の虚像距離に応じて第1閾値Lth1及び第2閾値Lth2を設定した場合の反応範囲R1~R3及び非反応範囲NR1、NR2を示し、図8(C)は、虚像Iv1~Iv3の虚像距離によらずに第1閾値Lth1及び第2閾値Lth2を設定した場合の反応範囲R1~R3及び非反応範囲NR1、NR2を示す。図8(B)、(C)の例では、いずれも、反応範囲R1~R3は、等しい長さに設定されている。 FIG. 8 shows the relationship between the positions of the virtual images Iv1 to Iv3 in the line-of-sight direction of the driver and the reaction ranges R1 to R3 and the non-reaction ranges NR1 and NR2. Specifically, FIG. 8A shows the positional relationship of the virtual images Iv1 to Iv3 in the line-of-sight direction of the driver, and FIG. 8B shows the first threshold value Lth1 and the virtual image distances of the virtual images Iv1 to Iv3. The reaction ranges R1 to R3 and the non-reaction ranges NR1 and NR2 when the second threshold value Lth2 is set are shown, and FIG. 8C shows the first threshold value Lth1 and the second threshold value regardless of the virtual image distances of the virtual images Iv1 to Iv3. The reaction ranges R1 to R3 and the non-reaction ranges NR1 and NR2 when Lth2 is set are shown. In the examples of FIGS. 8B and 8C, the reaction ranges R1 to R3 are set to have the same length.
図8(B)の例では、反応範囲R1の中央値と反応範囲R2の中央値との差(矢印B1参照)と、反応範囲R2の中央値と反応範囲R3の中央値との差(矢印B2参照)との比は、虚像Iv1と虚像Iv2との虚像距離の差(矢印A1参照)と、虚像Iv2と虚像Iv3との虚像距離の差(矢印A2参照)との比と等しい。この場合、第1閾値Lth1は、反応範囲R1の中央値と反応範囲R2の中央値との平均値に設定され、第2閾値Lth2は、反応範囲R2の中央値と反応範囲R3の中央値との平均値に設定される。また、非反応範囲NR1は、第1閾値Lth1を中心とした範囲に設定され、非反応範囲NR2は、第2閾値Lth2を中心とした範囲に設定されている。 In the example of FIG. 8B, the difference between the median value of the reaction range R1 and the median value of the reaction range R2 (see arrow B1) and the difference between the median value of the reaction range R2 and the median value of the reaction range R3 (arrow). The ratio to (see B2) is equal to the ratio of the difference in the virtual image distance between the virtual image Iv1 and the virtual image Iv2 (see arrow A1) and the difference in the virtual image distance between the virtual image Iv2 and the virtual image Iv3 (see arrow A2). In this case, the first threshold Lth1 is set to the average value of the median value of the reaction range R1 and the median value of the reaction range R2, and the second threshold Lth2 is the median value of the reaction range R2 and the median value of the reaction range R3. Is set to the average value of. Further, the non-reaction range NR1 is set in a range centered on the first threshold value Lth1, and the non-reaction range NR2 is set in a range centered on the second threshold value Lth2.
一方、図8(C)の例では、反応範囲R1の中央値と反応範囲R2の中央値との差(矢印C1参照)と、反応範囲R2の中央値と反応範囲R3の中央値との差(矢印C2参照)とは等しい。即ち、この場合、虚像Iv1~虚像Iv3の虚像距離によらずに、反応範囲R1~R3は等間隔に設定されている。また、図8(B)の例と同様、第1閾値Lth1は、反応範囲R1の中央値と反応範囲R2の中央値との平均値に設定され、第2閾値Lth2は、反応範囲R2の中央値と反応範囲R3の中央値との平均値に設定される。また、非反応範囲NR1は、第1閾値Lth1を中心とした範囲に設定され、非反応範囲NR2は、第2閾値Lth2を中心とした範囲に設定されている。 On the other hand, in the example of FIG. 8C, the difference between the median value of the reaction range R1 and the median value of the reaction range R2 (see arrow C1) and the difference between the median value of the reaction range R2 and the median value of the reaction range R3. (See arrow C2). That is, in this case, the reaction ranges R1 to R3 are set at equal intervals regardless of the virtual image distances of the virtual images Iv1 to Iv3. Further, as in the example of FIG. 8B, the first threshold Lth1 is set to the average value of the median value of the reaction range R1 and the median value of the reaction range R2, and the second threshold Lth2 is the center of the reaction range R2. It is set to the average value of the value and the median value of the reaction range R3. Further, the non-reaction range NR1 is set in a range centered on the first threshold value Lth1, and the non-reaction range NR2 is set in a range centered on the second threshold value Lth2.
(変形例2)
本発明に係る虚像表示装置を適用可能なヘッドアップディスプレイシステムの構成は、複数の虚像のそれぞれを同時に複数の虚像距離により表示するものであればよく、図1に示す構成に限定されない。例えば、ヘッドアップディスプレイは、フロントウィンドウ25に代えて、運転者と車両の前方風景との間に設けられたコンバイナにディスプレイ4の光を反射させることで、運転者に虚像を視認させてもよい。
(Modification 2)
The configuration of the head-up display system to which the virtual image display device according to the present invention can be applied is not limited to the configuration shown in FIG. 1 as long as each of the plurality of virtual images is simultaneously displayed by a plurality of virtual image distances. For example, instead of the
また、本発明に係る虚像表示装置は、複数の虚像のそれぞれを同時に複数の虚像距離で表示するヘッドマウントディスプレイにも好適に適用される。この場合、例えば、ヘッドマウントディスプレイのテンプル又はブリッジ部分等には、ユーザのジェスチャを撮影範囲に有する車室内撮影カメラ6が設けられる。 Further, the virtual image display device according to the present invention is also suitably applied to a head-mounted display that simultaneously displays each of a plurality of virtual images at a plurality of virtual image distances. In this case, for example, a vehicle interior photographing camera 6 having a user's gesture in the photographing range is provided on the temple or the bridge portion of the head-mounted display.
2 ヘッドアップディスプレイシステム
4 ディスプレイ
6 車室内撮影カメラ
8 凹面鏡
10 制御部
11 表示制御部
12 ジェスチャ検出部
13 対象特定部
25 フロントウィンドウ
28 ボンネット
29 ダッシュボード
2 Head-up
Claims (6)
第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御手段と、
前記車両の座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出手段と、
前記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接していない場合には、前記手を伸ばした方向に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定し、
前記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接している場合には、前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段と、
を備えることを特徴とする虚像表示装置。 It is a virtual image display device mounted on a vehicle.
A display control means for simultaneously displaying a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance as a virtual image on a display means.
A detection means for detecting the direction in which the observer who sits on the seat of the vehicle and visually recognizes the virtual image reaches out, and the gesture length corresponding to the distance reached out.
If the direction in which the first object is displayed and the direction in which the second object is displayed are not close to each other, the first object or the second object is based on the direction in which the hand is reached. Is specified as the object selected by the observer, and
When the direction in which the first object is displayed and the direction in which the second object is displayed are close to each other , the first object is based on the direction in which the hand is reached and the gesture length. Alternatively, a specific means for identifying any of the second objects as the object selected by the observer, and
A virtual image display device characterized by comprising.
第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御工程と、
前記車両の座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出工程と、
前記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接していない場合には、前記手を伸ばした方向に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定し、
前記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接している場合には、前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定工程と、
を有することを特徴とする制御方法。 It is a control method executed by the virtual image display device mounted on the vehicle .
A display control step of simultaneously displaying a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance as a virtual image on a display means.
A detection step of detecting the direction in which the observer sitting on the seat of the vehicle and visually recognizing the virtual image reaches out, and the gesture length corresponding to the distance reached out.
If the direction in which the first object is displayed and the direction in which the second object is displayed are not close to each other, the first object or the second object is based on the direction in which the hand is reached. Is specified as the object selected by the observer, and
When the direction in which the first object is displayed and the direction in which the second object is displayed are close to each other , the first object is based on the direction in which the hand is reached and the gesture length. Alternatively, a specific step of specifying any of the second objects as an object selected by the observer, and
A control method characterized by having.
第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御手段と、
前記車両の座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出手段と、
前記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接していない場合には、前記手を伸ばした方向に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定し、
前記第1オブジェクトが表示される方向と、前記第2オブジェクトが表示される方向とが近接している場合には、前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段
として前記コンピュータを機能させるプログラム。 A program executed by a computer installed in a vehicle .
A display control means for simultaneously displaying a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance as a virtual image on a display means.
A detection means for detecting the direction in which the observer who sits on the seat of the vehicle and visually recognizes the virtual image reaches out, and the gesture length corresponding to the distance reached out.
If the direction in which the first object is displayed and the direction in which the second object is displayed are not close to each other, the first object or the second object is based on the direction in which the hand is reached. Is specified as the object selected by the observer, and
When the direction in which the first object is displayed and the direction in which the second object is displayed are close to each other , the first object is based on the direction in which the hand is reached and the gesture length. Alternatively, a program that causes the computer to function as a specific means for identifying any of the second objects as an object selected by the observer.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020178815A JP7100100B2 (en) | 2020-10-26 | 2020-10-26 | Virtual image display device, control method, program, and storage medium |
JP2022106026A JP2022121625A (en) | 2020-10-26 | 2022-06-30 | Virtual image display device, control method, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020178815A JP7100100B2 (en) | 2020-10-26 | 2020-10-26 | Virtual image display device, control method, program, and storage medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019031572A Division JP2019123503A (en) | 2019-02-25 | 2019-02-25 | Virtual image display apparatus, control method, program, and storage medium |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022106026A Division JP2022121625A (en) | 2020-10-26 | 2022-06-30 | Virtual image display device, control method, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021014262A JP2021014262A (en) | 2021-02-12 |
JP7100100B2 true JP7100100B2 (en) | 2022-07-12 |
Family
ID=74530328
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020178815A Active JP7100100B2 (en) | 2020-10-26 | 2020-10-26 | Virtual image display device, control method, program, and storage medium |
JP2022106026A Pending JP2022121625A (en) | 2020-10-26 | 2022-06-30 | Virtual image display device, control method, program, and recording medium |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022106026A Pending JP2022121625A (en) | 2020-10-26 | 2022-06-30 | Virtual image display device, control method, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7100100B2 (en) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005138755A (en) | 2003-11-07 | 2005-06-02 | Denso Corp | Device and program for displaying virtual images |
JP2005301668A (en) | 2004-04-12 | 2005-10-27 | Seiko Epson Corp | Information processor and information processing program |
JP2006155172A (en) | 2004-11-29 | 2006-06-15 | Olympus Corp | Input device |
JP2010015553A (en) | 2008-06-03 | 2010-01-21 | Shimane Pref Gov | Image recognition device, manipulation determination method, and program |
JP2010146481A (en) | 2008-12-22 | 2010-07-01 | Brother Ind Ltd | Head-mounted display |
JP2012008808A (en) | 2010-06-24 | 2012-01-12 | Canon Inc | Information processor |
JP2012043195A (en) | 2010-08-19 | 2012-03-01 | Sony Corp | Information processor, information processing method, and program |
JP2012053557A (en) | 2010-08-31 | 2012-03-15 | Sony Corp | Information processing unit, information processing method and program |
JP2013079930A (en) | 2012-02-07 | 2013-05-02 | Pioneer Electronic Corp | Head-up display, control method, and display device |
JP2014056462A (en) | 2012-09-13 | 2014-03-27 | Toshiba Alpine Automotive Technology Corp | Operation device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1097646A (en) * | 1996-09-24 | 1998-04-14 | Rekusaa Res:Kk | Method and device for obtaining three dimensional space coordinate value in three-dimensional space display system |
-
2020
- 2020-10-26 JP JP2020178815A patent/JP7100100B2/en active Active
-
2022
- 2022-06-30 JP JP2022106026A patent/JP2022121625A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005138755A (en) | 2003-11-07 | 2005-06-02 | Denso Corp | Device and program for displaying virtual images |
JP2005301668A (en) | 2004-04-12 | 2005-10-27 | Seiko Epson Corp | Information processor and information processing program |
JP2006155172A (en) | 2004-11-29 | 2006-06-15 | Olympus Corp | Input device |
JP2010015553A (en) | 2008-06-03 | 2010-01-21 | Shimane Pref Gov | Image recognition device, manipulation determination method, and program |
JP2010146481A (en) | 2008-12-22 | 2010-07-01 | Brother Ind Ltd | Head-mounted display |
JP2012008808A (en) | 2010-06-24 | 2012-01-12 | Canon Inc | Information processor |
JP2012043195A (en) | 2010-08-19 | 2012-03-01 | Sony Corp | Information processor, information processing method, and program |
JP2012053557A (en) | 2010-08-31 | 2012-03-15 | Sony Corp | Information processing unit, information processing method and program |
JP2013079930A (en) | 2012-02-07 | 2013-05-02 | Pioneer Electronic Corp | Head-up display, control method, and display device |
JP2014056462A (en) | 2012-09-13 | 2014-03-27 | Toshiba Alpine Automotive Technology Corp | Operation device |
Also Published As
Publication number | Publication date |
---|---|
JP2021014262A (en) | 2021-02-12 |
JP2022121625A (en) | 2022-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2891953B1 (en) | Eye vergence detection on a display | |
EP3213948B1 (en) | Display control device and display control program | |
JP2016091192A (en) | Virtual image display apparatus, control method, program, and storage medium | |
EP2936240B1 (en) | Infotainment system | |
JP4366716B2 (en) | Vehicle information display device | |
JP4946682B2 (en) | Vehicle travel support device | |
JP2015231828A (en) | Display device and movable body | |
JP2006350934A (en) | Information display device | |
JP2008018760A (en) | Driving support device | |
JP2016074410A (en) | Head-up display device and head-up display display method | |
US20190088024A1 (en) | Non-transitory computer-readable storage medium, computer-implemented method, and virtual reality system | |
CN108725321A (en) | Information presentation device | |
WO2020105685A1 (en) | Display control device, method, and computer program | |
KR101209796B1 (en) | Display device for vehicle with foreground penetration function and display method of the same | |
WO2016056199A1 (en) | Head-up display device, and display method for head-up display | |
JP6550690B2 (en) | Display device, vehicle | |
JP7100100B2 (en) | Virtual image display device, control method, program, and storage medium | |
KR20130119144A (en) | Method and device for displaying object using transparent display panel | |
JP2019010919A (en) | Travel support device and computer program | |
JP2007280203A (en) | Information presenting device, automobile and information presenting method | |
JP2014174091A (en) | Information providing device and information providing program | |
JP2014174880A (en) | Information processor and information program | |
JP2019123503A (en) | Virtual image display apparatus, control method, program, and storage medium | |
JP2023017641A (en) | Vehicle display control device, vehicle display device, vehicle display control method, and vehicle display control program | |
JP6939147B2 (en) | Driving information guidance device and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220630 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7100100 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |