JP6805524B2 - Input device, input program, and input method - Google Patents

Input device, input program, and input method Download PDF

Info

Publication number
JP6805524B2
JP6805524B2 JP2016069428A JP2016069428A JP6805524B2 JP 6805524 B2 JP6805524 B2 JP 6805524B2 JP 2016069428 A JP2016069428 A JP 2016069428A JP 2016069428 A JP2016069428 A JP 2016069428A JP 6805524 B2 JP6805524 B2 JP 6805524B2
Authority
JP
Japan
Prior art keywords
operator
viewpoint
input
display
virtual surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016069428A
Other languages
Japanese (ja)
Other versions
JP2017182500A (en
Inventor
河合 淳
淳 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016069428A priority Critical patent/JP6805524B2/en
Publication of JP2017182500A publication Critical patent/JP2017182500A/en
Application granted granted Critical
Publication of JP6805524B2 publication Critical patent/JP6805524B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

開示の技術は、入力装置、入力プログラム、及び入力方法に関する。 The disclosed techniques relate to input devices, input programs, and input methods.

従来、視点位置データに基づき視線検出成功、視線検出失敗、まばたき中、同じ選択肢を選択しているなどの検出結果状況を判断し、その判断結果に応じて検出結果状況を表す検出結果情報を文字の選択枠の色を変えて利用者に通知する装置が知られている。 Conventionally, the detection result status such as gaze detection success, gaze detection failure, blinking, and the same option is selected is judged based on the viewpoint position data, and the detection result information indicating the detection result status is written according to the judgment result. There is known a device that changes the color of the selection frame to notify the user.

特開平11−259226号公報Japanese Unexamined Patent Publication No. 11-259226

両手を使用しない又は使用できない環境において、従来技術のように視線検出を用いて入力操作を行うことが考えられる。しかし、多様な入力操作を行う場合には、多数のアイコンを表示装置に表示する必要がある。視線検出を用いて入力操作を行う場合、多数のアイコンが表示装置に表示されている状態では、スムーズに入力操作を行うことができない場合がある。 In an environment where both hands are not used or cannot be used, it is conceivable to perform an input operation using line-of-sight detection as in the prior art. However, when performing various input operations, it is necessary to display a large number of icons on the display device. When performing an input operation using line-of-sight detection, it may not be possible to perform the input operation smoothly when a large number of icons are displayed on the display device.

1つの側面として、本発明は、入力操作をスムーズに行うことを目的とする。 As one aspect, it is an object of the present invention to smoothly perform an input operation.

1つの実施態様では、入力操作用のアイコンを含む複数の仮想表面を、操作者から見て奥行き方向に並べて配置し、かつ複数の前記仮想表面を透過させて3次元表示部に表示させる。そして、前記操作者の視点の位置を取得する。そして、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する仮想表面に含まれる前記アイコンを選択する。 In one embodiment, a plurality of virtual surfaces including icons for input operations are arranged side by side in the depth direction when viewed from the operator, and the plurality of virtual surfaces are transparently displayed on the three-dimensional display unit. Then, the position of the viewpoint of the operator is acquired. Then, based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit, the icon included in the virtual surface corresponding to the position of the viewpoint is selected.

1つの側面として、入力操作をスムーズに行うことができる、という効果を有する。 As one aspect, it has the effect that the input operation can be performed smoothly.

複数のアイコンを含む表示面における操作者の視線を説明するための図である。It is a figure for demonstrating the line of sight of an operator on the display surface including a plurality of icons. 本実施形態の操作用の3次元表示画像を説明するための説明図である。It is explanatory drawing for demonstrating 3D display image for operation of this embodiment. 第1実施形態の入力装置のブロック図である。It is a block diagram of the input device of 1st Embodiment. 仮想表面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of a virtual surface. 仮想表面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of a virtual surface. 仮想表面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of a virtual surface. 両眼Head Mounted Display(HMD)の一例を示す図である。It is a figure which shows an example of the binocular Head Mounted Display (HMD). 裸眼3Dディスプレイの一例を示す図である。It is a figure which shows an example of the naked eye 3D display. 複数の透明ディスプレイの一例を示す図である。It is a figure which shows an example of a plurality of transparent displays. 装着型の両眼アイマークレコーダの一例を示す図である。It is a figure which shows an example of the wearable binocular eye mark recorder. 3D表示部と視線検出部との構成例を示す図である。It is a figure which shows the configuration example of a 3D display part and a line-of-sight detection part. 3D表示部と視線検出部との構成例を示す図である。It is a figure which shows the configuration example of a 3D display part and a line-of-sight detection part. 3D表示部と視線検出部との構成例を示す図である。It is a figure which shows the configuration example of a 3D display part and a line-of-sight detection part. 3D表示部と視線検出部との構成例を示す図である。It is a figure which shows the configuration example of a 3D display part and a line-of-sight detection part. 操作者の視点の位置の取得方法を説明するための説明図である。It is explanatory drawing for demonstrating the acquisition method of the position of the viewpoint of an operator. 口の形の変化の検出を説明するための説明図である。It is explanatory drawing for demonstrating the detection of the change of the shape of the mouth. 操作入力部と判定処理部との処理の流れを説明するための説明図である。It is explanatory drawing for demonstrating the processing flow of operation input part and determination processing part. 操作入力部と判定処理部との処理の流れを説明するための説明図である。It is explanatory drawing for demonstrating the processing flow of operation input part and determination processing part. 操作入力部と判定処理部との処理の流れを説明するための説明図である。It is explanatory drawing for demonstrating the processing flow of operation input part and determination processing part. 入力表示面の位置を制御する方法の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the method of controlling the position of an input display surface. 仮想表面の透過の度合いを制御する方法の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the method of controlling the degree of transmission of a virtual surface. アイコンのサイズが制御された仮想表面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the virtual surface which controlled the size of an icon. アイコンが重ならないように制御された仮想表面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the virtual surface which controlled so that the icons do not overlap. アイコンが重ならないように制御された各仮想表面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of each virtual surface controlled so that the icon does not overlap. アイコンの形状及び色が制御された仮想表面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the virtual surface which controlled the shape and color of an icon. 第1実施形態の入力装置として機能するコンピュータの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the computer which functions as the input device of 1st Embodiment. 第1実施形態の制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the control process of 1st Embodiment. タブが付与された仮想表面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the virtual surface with a tab. 仮想表面の内側にタブが付与された場合の例を説明するための説明図である。It is explanatory drawing for demonstrating the example in the case where the tab is added to the inside of a virtual surface. 鮮明度合いが制御された仮想表面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the virtual surface which controlled the sharpness degree. 第4実施形態の入力装置のブロック図である。It is a block diagram of the input device of 4th Embodiment. 操作者の頭部の位置に応じて仮想表面の位置を制御する方法の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the method of controlling the position of a virtual surface according to the position of the head of an operator. 運動視差を説明するための説明図である。It is explanatory drawing for demonstrating motion parallax. 第4実施形態の入力装置として機能するコンピュータの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the computer which functions as the input device of 4th Embodiment. 第4実施形態の制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the control process of 4th Embodiment.

以下、図面を参照して開示の技術の一例を詳細に説明する。 Hereinafter, an example of the disclosed technology will be described in detail with reference to the drawings.

<本実施形態の概要>
まず、各実施形態の詳細を説明する前に、本実施形態の概要について説明する。
<Outline of this embodiment>
First, an outline of the present embodiment will be described before the details of each embodiment are described.

オフィス、屋外での作業中、または公共の場所など様々な環境下で、スムーズな入力操作が必要となる状況が増加している。例えば、両手を他の作業に使用していることにより入力デバイスを操作できない場合、混雑状況下で入力デバイスを操作できない場合、また、身体障害等により両手を使用できない場合など、両手を使えない状態で入力操作が必要とされる場合がある。そのため、両手を使わずに、スムーズに入力操作できる技術が求められている。 There is an increasing number of situations where smooth input operations are required in various environments such as offices, outdoors, or in public places. For example, if you cannot operate the input device because you are using both hands for other work, if you cannot operate the input device under congestion, or if you cannot use both hands due to physical disability, etc., you cannot use both hands. Input operation may be required in. Therefore, there is a demand for a technology that enables smooth input operation without using both hands.

本実施形態は、情報端末における入力操作技術に関し、特に、両手を使用しないまたは使用出来ない環境における入力操作技術に関するものである。 The present embodiment relates to an input operation technique in an information terminal, and more particularly to an input operation technique in an environment in which both hands are not used or cannot be used.

図1に操作者の視線の移動を説明するための図を示す。図1に示すように、複数のアイコン4が1つの表示面1Aに配置されている場合、アイコン4の配置の記憶は困難になる。そのため、操作者が目的のアイコン4を探索する場合に、操作者は多くのアイコン4を識別する必要が生じ、操作者の視線の移動の経路2Aは長くなる。また、目的のアイコン4以外での視線の滞留時間が長くなる。 FIG. 1 shows a diagram for explaining the movement of the line of sight of the operator. As shown in FIG. 1, when a plurality of icons 4 are arranged on one display surface 1A, it becomes difficult to memorize the arrangement of the icons 4. Therefore, when the operator searches for the target icon 4, the operator needs to identify many icons 4, and the path 2A of the movement of the operator's line of sight becomes long. In addition, the residence time of the line of sight other than the target icon 4 becomes long.

一方、図1の表示面1Bに示すように、1面あたりのアイコン数を少なくすることにより、操作者がアイコン4の配置を記憶することが容易になる。そのため、識別対象となるアイコンの数が減少し、目的のアイコン4以外での視線の滞留時間が短くなる。また、操作者の視線の移動の経路2Bは短くなる。 On the other hand, as shown in the display surface 1B of FIG. 1, by reducing the number of icons per surface, it becomes easy for the operator to memorize the arrangement of the icons 4. Therefore, the number of icons to be identified is reduced, and the residence time of the line of sight other than the target icon 4 is shortened. In addition, the path 2B of the movement of the operator's line of sight becomes shorter.

そこで、本実施形態では、両眼立体視が生じる3D表示部を用いて、入力に必要となる入力操作用の多数のアイコンを、奥行き方向を含めて3次元的に表示する。そして、視線を検出する視線検出部を用いて、操作者の3次元の視点の位置を検出し、操作者が選択しているアイコンを特定する。 Therefore, in the present embodiment, a large number of icons for input operations required for input are three-dimensionally displayed including the depth direction by using the 3D display unit that causes binocular stereoscopic vision. Then, the line-of-sight detection unit that detects the line-of-sight is used to detect the position of the operator's three-dimensional viewpoint and identify the icon selected by the operator.

例えば、本実施形態では、図2に示すような操作用の3次元表示画像5を操作者に対して表示する。図2に示すように、操作用の3次元表示画像5には、複数の奥行き方向の位置に対応して各々設定した仮想的な表示面(以下、仮想表面と称する。)5A,5B,5C,5Dが含まれている。図2では、仮想表面が4つである場合を示している。操作用の3次元表示画像5は、3次元空間において複数のアイコン4を複数の仮想表面に配置して半透過で表示する。また、3次元表示画像5は、入力表示面5Nを含む。入力表示面5Nによって、操作者の操作に応じて入力された文字等が表示される。 For example, in the present embodiment, the three-dimensional display image 5 for operation as shown in FIG. 2 is displayed to the operator. As shown in FIG. 2, the three-dimensional display image 5 for operation has virtual display surfaces (hereinafter referred to as virtual surfaces) 5A, 5B, 5C set corresponding to a plurality of positions in the depth direction. , 5D is included. FIG. 2 shows a case where there are four virtual surfaces. The three-dimensional display image 5 for operation arranges a plurality of icons 4 on a plurality of virtual surfaces in a three-dimensional space and displays them semi-transparently. Further, the three-dimensional display image 5 includes an input display surface 5N. The input display surface 5N displays characters and the like input according to the operation of the operator.

また、本実施形態では、1つの仮想表面あたりに含まれるアイコンの数を少なくし、かつアイコン1つあたりのサイズを大きくする。 Further, in the present embodiment, the number of icons included in one virtual surface is reduced, and the size of each icon is increased.

本実施形態のように、半透過で表示されたアイコン4を3次元配置することにより、以下の(1)〜(3)の効果が期待される。 By arranging the semi-transparently displayed icons 4 in three dimensions as in the present embodiment, the following effects (1) to (3) can be expected.

(1)一覧性の向上
本実施形態では、半透過で表示されたアイコンを3次元に配置することにより、操作者は、全てのアイコンを一度に目視可能となる。更に、奥行き方向に並ぶアイコンをずらして配置することにより、見かけ上のアイコンの重なりが削減される。また、後述する運動視差を利用することにより、操作者は少し頭を動かす自然な動作で、奥行き方向に重なったアイコンも分離して見ることができる。このように、多数のアイコンの表示の一覧性を向上させ、表示ページの切り替えを伴わない直接的な選択と入力操作を可能にする。
(1) Improvement of listability In the present embodiment, by arranging the semi-transparently displayed icons in three dimensions, the operator can visually recognize all the icons at once. Further, by arranging the icons arranged in the depth direction in a staggered manner, the overlap of the apparent icons is reduced. In addition, by using the motion parallax described later, the operator can see the icons overlapping in the depth direction separately by the natural movement of moving the head a little. In this way, the listability of the display of many icons is improved, and direct selection and input operation without switching the display page is possible.

(2)探索し易さの向上
本実施形態では、従来の上下左右方向のアイコンの探索方向に加えて、奥行き方向の自由度が追加される。すなわち、奥行き方向を探索してから上下左右方向を探索する場合と、上下左右方向を探索してから奥行き方向を探索する場合との2つの探索方法が考えられる。これにより、各操作者の記憶状態、好み、探索対象のアイコンなどの相違によって、その時々の探索し易さに応じて、両方の探索方法を使い分けることができる。
(2) Improvement of ease of search In the present embodiment, in addition to the conventional search direction of icons in the vertical and horizontal directions, a degree of freedom in the depth direction is added. That is, two search methods can be considered: a case where the depth direction is searched and then the vertical and horizontal directions are searched, and a case where the vertical and horizontal directions are searched and then the depth direction is searched. As a result, both search methods can be used properly according to the ease of search at each time, depending on the difference in the memory state, preference, search target icon, etc. of each operator.

(3)選択性の向上
本実施形態では、「見る」という行為だけでアイコンの選択が可能なため、選択の迷いや間違いが少ない。例えば、アイコンの選択に複数回の選択及び確定操作が必要な場合、必要な選択を完全に記憶していないときや操作上などで誤選択してしまったときには、戻って選びなおす必要がある。
(3) Improvement of selectivity Since the icon can be selected only by the act of "seeing" in the present embodiment, there is little hesitation or mistake in selection. For example, when selecting an icon requires multiple selection and confirmation operations, when the required selection is not completely memorized, or when an erroneous selection is made in operation, it is necessary to go back and reselect.

例えば、表示ページの切り替え操作や、コンテキストメニューやフリック入力などの連続した複数回の選択及び確定操作や、テンキーでの文字入力のような選択後の連続確定操作などが、アイコンの選択に複数回の選択及び確定操作が必要な場合として挙げられる。 For example, a display page switching operation, a continuous multiple selection and confirmation operation such as a context menu or flick input, and a continuous confirmation operation after selection such as character input with the numeric keypad are performed multiple times for icon selection. It is mentioned as a case where the selection and confirmation operation of is necessary.

しかし、本実施形態では、「見る」という行為だけでアイコンの選択が可能なため、選択の迷いや間違いが少なく、上記のような、誤選択及び戻って選び直すことが少ない。 However, in the present embodiment, since the icon can be selected only by the act of "seeing", there are few hesitations and mistakes in selection, and there is little mistaken selection and reselection as described above.

また、1面に全てのアイコンを配置するよりも、複数面に分割して配置した方が、操作者はアイコンの配置を記憶し易く、また操作者にとって探索し易い。また、1面あたりのアイコンの数が少ない方が、操作者がアイコンの配置を記憶し易く探索し易いため、視線の移動が少なくなる。 Further, it is easier for the operator to memorize the arrangement of the icons and to search for the icons when the icons are divided into a plurality of surfaces rather than all the icons are arranged on one surface. Further, when the number of icons per surface is small, the operator can easily memorize the arrangement of the icons and search for them, so that the movement of the line of sight is reduced.

視線の移動の観点から、複数の仮想表面を奥行き方向に配置することの優位性について説明する。例えば、複数の表示面を3次元に配置する場合と、分割した表示面を同一平面上に配置する場合とを比較すると、複数の表示面を3次元に配置する場合は、以下の(1)及び(2)の点で優位である。 From the viewpoint of movement of the line of sight, the advantage of arranging a plurality of virtual surfaces in the depth direction will be described. For example, comparing the case where a plurality of display surfaces are arranged in three dimensions and the case where the divided display surfaces are arranged on the same plane, when the plurality of display surfaces are arranged in three dimensions, the following (1) And (2) is superior.

(1)複数のアイコンを入力する場合の、1選択あたりの平均的な視線の角度と移動量とが少なくて済む。
(2)検出すべき視線角度の範囲が狭くて済む。
(1) When inputting a plurality of icons, the average line-of-sight angle and movement amount per selection can be small.
(2) The range of the line-of-sight angle to be detected can be narrowed.

また、複数の表示面を3次元に配置する場合と、複数の表示面を同一奥行面上において表示を切り替える場合とを比較すると、複数の表示面を同一奥行面上において表示を切り替える場合は、以下の点で不利である。すなわち、表示されていない表示面については、入力したいアイコンがどの面にあるのかを操作者が記憶しておくか、実際に表示の切り替えをして確認する必要があり、操作者の負担が増加する。 Further, comparing the case where a plurality of display surfaces are arranged three-dimensionally and the case where the display is switched on the same depth surface, when the display is switched on the same depth surface, the case where the plurality of display surfaces are switched on the same depth surface is used. It is disadvantageous in the following points. That is, for the display surface that is not displayed, it is necessary for the operator to remember on which surface the icon to be input is located, or to actually switch the display to check, which increases the burden on the operator. To do.

以上説明したように、3D表示を用いて、アイコンを含む仮想表面を3次元的に配置して表示し、3次元で操作者の視点の位置を検出して操作対象のアイコンを特定することで、多数のアイコンの一覧性と選択性とを向上させることができる。 As described above, by using the 3D display, the virtual surface including the icon is arranged and displayed in three dimensions, the position of the operator's viewpoint is detected in three dimensions, and the icon to be operated is specified. , It is possible to improve the listability and selectivity of many icons.

更に、本実施形態では、操作者から入力される複数種類の入力操作が判別される。例えば、カメラによって取得された口の形の変化や、咽頭マイクによって取得された小音量の発声音パターンなどに基づいて、入力操作が判別される。 Further, in the present embodiment, a plurality of types of input operations input from the operator are discriminated. For example, the input operation is determined based on the change in the shape of the mouth acquired by the camera, the low-volume vocal sound pattern acquired by the pharyngeal microphone, and the like.

これにより、選択されたアイコンの素早い入力の確定のほか、使用頻度の高い入力操作(例えば、かな・漢字変換、Backspace(BS)、カーソル移動など)については、アイコンの選択を必要としない直接操作を可能にする。そのため、よりスムーズで多様な入力操作が実現される。 This allows you to quickly confirm the input of the selected icon, and for frequently used input operations (for example, kana / kanji conversion, Backspace (BS), cursor movement, etc.), direct operations that do not require icon selection. To enable. Therefore, smoother and more diverse input operations are realized.

以下、実施形態について詳述する。なお、以下の各実施形態では、操作者の視点の位置に応じてアイコンを選択する入力装置を例に説明する。 Hereinafter, embodiments will be described in detail. In each of the following embodiments, an input device that selects an icon according to the position of the viewpoint of the operator will be described as an example.

<第1実施形態>
図3に示すように、第1実施形態に係る入力装置50は、3D表示部52と、視線検出部54と、操作入力部56と、制御部58とを備えている。
<First Embodiment>
As shown in FIG. 3, the input device 50 according to the first embodiment includes a 3D display unit 52, a line-of-sight detection unit 54, an operation input unit 56, and a control unit 58.

3D表示部52は、複数の仮想表面を、操作者から見て奥行き方向に並べて配置し、かつ複数の仮想表面を透過させて3次元表示する。仮想表面の各々は、入力操作用のアイコン4を含んでいる。3D表示部52は、後述する表示処理部60によって生成された3次元表示画像を表示することにより、複数の仮想表面を3次元表示する。例えば、3D表示部52によって、上記図2に示すような複数の仮想表面(5A,5B,5C,5D)が3次元表示される。なお、最下層の仮想表面は透過させて表示してもよいし、透過させずに表示してもよい。例えば、上記図2に示す最下層の仮想表面5Dは、透過させて表示してもよいし、透過させずに表示してもよい。 The 3D display unit 52 arranges a plurality of virtual surfaces side by side in the depth direction when viewed from the operator, and transmits the plurality of virtual surfaces to display them in three dimensions. Each of the virtual surfaces contains an icon 4 for input operations. The 3D display unit 52 displays a plurality of virtual surfaces in three dimensions by displaying a three-dimensional display image generated by the display processing unit 60 described later. For example, the 3D display unit 52 displays a plurality of virtual surfaces (5A, 5B, 5C, 5D) as shown in FIG. 2 in three dimensions. The virtual surface of the bottom layer may be displayed transparently or may not be transparently displayed. For example, the virtual surface 5D of the lowermost layer shown in FIG. 2 may be displayed transparently or may not be transparently displayed.

仮想表面に含まれる入力操作用のアイコンの一例を図4A及び図4Bに示す。図4Aに示す複数の仮想表面5A,5B,5C,5D,5Eでは、主としてひらがなとアイコン4とが対応付けられている。また、仮想表面に含まれるアイコン「切替」が選択されることによって、図4Bに示す複数の仮想表面5A,5B,5C,5D,5Eに切り替わる。複数の仮想表面5A,5B,5C,5D,5Eでは、英字及び記号がアイコン4に対応付けられている。また、同様に、仮想表面5A,5B,5C,5D,5Eに含まれるアイコン「切替」が選択されることによって、ひらがなはカタカナに切り替わる。 An example of an icon for input operation included in the virtual surface is shown in FIGS. 4A and 4B. In the plurality of virtual surfaces 5A, 5B, 5C, 5D, and 5E shown in FIG. 4A, the hiragana and the icon 4 are mainly associated with each other. Further, when the icon "switch" included in the virtual surface is selected, the virtual surfaces are switched to the plurality of virtual surfaces 5A, 5B, 5C, 5D, and 5E shown in FIG. 4B. In the plurality of virtual surfaces 5A, 5B, 5C, 5D, and 5E, letters and symbols are associated with the icon 4. Similarly, when the icon "switch" included in the virtual surfaces 5A, 5B, 5C, 5D, and 5E is selected, the hiragana is switched to katakana.

また、入力操作用のアイコン4の他の例を図5に示す。図5に示す複数の仮想表面5A,5B,5C,5Dでは、主としてローマ字とアイコン4とが対応付けられている。図5に示すアイコン4が選択されることによって、ローマ字入力が行われる。 Further, another example of the icon 4 for input operation is shown in FIG. In the plurality of virtual surfaces 5A, 5B, 5C, and 5D shown in FIG. 5, the Roman characters and the icon 4 are mainly associated with each other. By selecting the icon 4 shown in FIG. 5, Roman character input is performed.

3D表示部52は、例えば、両眼Head Mounted Display(HMD)表示型のディスプレイや、裸眼立体視型のディスプレイによって実現される。 The 3D display unit 52 is realized by, for example, a binocular Head Mounted Display (HMD) display type display or a naked eye stereoscopic display type display.

図6に、両眼HMD表示型のディスプレイ52Aの一例を示す。両眼HMD表示型のディスプレイとしては、非透過型HMDと透過型HMDとがある。非透過型HMDについては、操作者6が非透過型HMDを装着すると外の様子を見ることはできない。一方、透過型HMDについては、操作者6が透過型HMDを装着しても外の様子を見ることができる。 FIG. 6 shows an example of the binocular HMD display type display 52A. The binocular HMD display type display includes a non-transmissive type HMD and a transmissive type HMD. As for the non-transparent HMD, when the operator 6 wears the non-transparent HMD, the outside cannot be seen. On the other hand, with respect to the transmissive HMD, even if the operator 6 wears the transmissive HMD, the outside can be seen.

非透過型HMDは、四肢の身体障害者向けや、VRゲーム向け(例えば、両手は、ゲーム操作のコントローラに使用される。)などでの、文字入力や操作入力の際に用いられる。 The non-transparent HMD is used for character input and operation input for persons with physical disabilities in the limbs and for VR games (for example, both hands are used as a controller for game operation).

透過型HMDは、保守、点検、又は組立など作業者向け(例えば、両手は工具等のために使用される。)のAugmented Reality(AR)作業支援システムでの、文字入力や操作入力の際に用いられる。また、透過型HMDは、競技場でのスポーツ観戦時の、目視内容(カメラ付きHMDの場合)やAR情報表示に対するソーシャルネットワークコミュニケーション向けの文字入力や操作入力の際に用いられる。 The transmissive HMD is used for character input and operation input in an Augmented Reality (AR) work support system for workers such as maintenance, inspection, or assembly (for example, both hands are used for tools, etc.). Used. In addition, the transparent HMD is used for character input and operation input for social network communication for visual content (in the case of an HMD with a camera) and AR information display when watching sports at a stadium.

裸眼立体視型のディスプレイとしては、例えば、レンチキュラレンズ式3Dディスプレイや、ホログラム式立体映像表示装置や、複数の透明ディスプレイを使用する方式などがある。 Examples of the autostereoscopic display include a lenticular lens type 3D display, a hologram type stereoscopic image display device, and a method using a plurality of transparent displays.

図7に、レンチキュラレンズ式3Dディスプレイ52Bの一例を示す。レンチキュラレンズ式3Dディスプレイ52Bは、図7に示すように、ディスプレイ52C上にレンズ52Dを備え、操作者の両眼立体視が生じるような構成となっている。 FIG. 7 shows an example of the lenticular lens type 3D display 52B. As shown in FIG. 7, the lenticular lens type 3D display 52B is provided with a lens 52D on the display 52C, and is configured to cause binocular stereoscopic vision of the operator.

また、図8に、複数の透明ディスプレイ52Eを使用する方式の一例を示す。複数の透明ディスプレイ52Eは、操作者の両眼立体視が生ずるような構成となっている。 Further, FIG. 8 shows an example of a method using a plurality of transparent displays 52E. The plurality of transparent displays 52E are configured to cause binocular stereoscopic vision of the operator.

裸眼立体視型のディスプレイは、四肢の身体障害者向けや、TVゲーム向け(例えば、両手は、ゲーム操作のコントローラに使用される。)などでの、文字入力や操作入力の際に用いられる。また、裸眼立体視型のディスプレイは、デジタルサイネージや観光案内表示板などでのインタラクティブ操作のほか、特定の施設(例えば、エンターテインメントなど)での、表示物に対する情報表示や入力などの操作の際に用いられる。 The autostereoscopic display is used for character input and operation input for persons with physical disabilities in the limbs and for TV games (for example, both hands are used as a controller for game operation). In addition, the autostereoscopic display can be used for interactive operations such as digital signage and tourist information display boards, as well as for operations such as displaying and inputting information on displayed objects at specific facilities (for example, entertainment). Used.

視線検出部54は、操作者の視線を表す情報を取得する。例えば、視線検出部54は、操作者の視線を表す情報として、操作者の両眼の画像を取得する。 The line-of-sight detection unit 54 acquires information representing the line-of-sight of the operator. For example, the line-of-sight detection unit 54 acquires an image of both eyes of the operator as information representing the line of sight of the operator.

3D表示部52として両眼HMD表示型のディスプレイを用いる場合、視線検出部54は3D表示部52に備えられる。 When a binocular HMD display type display is used as the 3D display unit 52, the line-of-sight detection unit 54 is provided in the 3D display unit 52.

また、3D表示部52として裸眼立体視型のディスプレイを用いる場合、3D表示部52に固定される方式や、装着型の両眼アイマークレコーダを使用する方式などがある。 Further, when a naked-eye stereoscopic display is used as the 3D display unit 52, there are a method of being fixed to the 3D display unit 52 and a method of using a wearable binocular eye mark recorder.

例えば、視線検出部54が3D表示部52に固定される方式を用いる場合、可動式ズームカメラを用いて操作者の視線に関する情報を取得する。なお、入力装置50に全景撮影用カメラが備えられている場合には、全景撮影用カメラを高解像度カメラとし、全景撮影用カメラと視線検出用カメラとを兼ねる構成としてもよい。 For example, when the method in which the line-of-sight detection unit 54 is fixed to the 3D display unit 52 is used, information on the line-of-sight of the operator is acquired by using a movable zoom camera. When the input device 50 is provided with a panoramic shooting camera, the panoramic shooting camera may be a high-resolution camera, and the panoramic shooting camera and the line-of-sight detection camera may be combined.

図9に、装着型の両眼アイマークレコーダ54Aの一例を示す。両眼アイマークレコーダ54Aには、右眼用のセンサ54Bと左眼用のセンサ54Cとが備えられており、操作者の両眼の角膜反射の撮像画像が取得される。 FIG. 9 shows an example of a wearable binocular eye mark recorder 54A. The binocular eye mark recorder 54A is provided with a sensor 54B for the right eye and a sensor 54C for the left eye, and an captured image of the corneal reflex of both eyes of the operator is acquired.

図10〜図13に、3D表示部52と視線検出部54との構成例を示す。 10 to 13 show a configuration example of the 3D display unit 52 and the line-of-sight detection unit 54.

図10及び図11は、3D表示部52として透過型HMD52Aを用いた場合の例である。 10 and 11 are examples in which the transmissive HMD 52A is used as the 3D display unit 52.

図10に示すように、透過型HMD52Aによって仮想表面が表示され、操作者6によって作業コメント等が入力される。本実施形態の入力装置50によって作業者の支援が行われるため、両手で作業をしながらコメントを入力することができる。 As shown in FIG. 10, a virtual surface is displayed by the transparent HMD 52A, and a work comment or the like is input by the operator 6. Since the input device 50 of the present embodiment supports the operator, it is possible to input a comment while working with both hands.

また、図11に示すように、透過型HMD52Aによって仮想表面が表示され、操作者6によってメータ23の値等が入力される。図11に示すような構成例は、例えば、工場施設や機体整備など保守点検業務の端末として用いられる。 Further, as shown in FIG. 11, the virtual surface is displayed by the transmissive HMD 52A, and the value of the meter 23 and the like are input by the operator 6. The configuration example shown in FIG. 11 is used as a terminal for maintenance and inspection work such as factory facilities and airframe maintenance.

図12及び図13は、3D表示部52として裸眼立体視型のディスプレイ52Bを用いた場合の例である。 12 and 13 are examples in the case where the autostereoscopic display 52B is used as the 3D display unit 52.

図12に示すように、案内表示板としての裸眼立体視型のディスプレイ52Bが3D表示部52として機能し、操作者6が案内表示板を目視し、付加情報を取得したり、質問を入力すること等ができる。なお、操作者の視線はカメラ54Dによって取得される。 As shown in FIG. 12, the autostereoscopic display 52B as a guidance display board functions as a 3D display unit 52, and the operator 6 visually observes the guidance display board to acquire additional information or input a question. You can do things. The line of sight of the operator is acquired by the camera 54D.

また、図13に示すように、案内表示板としての裸眼立体視型のディスプレイ52Bが3D表示部52として機能し、デジタルサイネージや、施設案内端末等として用いることができる。なお、操作者の視線はカメラ54Dによって取得される。 Further, as shown in FIG. 13, the autostereoscopic display 52B as a guidance display board functions as a 3D display unit 52, and can be used as a digital signage, a facility guidance terminal, or the like. The line of sight of the operator is acquired by the camera 54D.

本実施形態では、3D表示部52が裸眼立体視型のディスプレイ52Bによって実現される場合を例に説明する。また、本実施形態では、視線検出部54がカメラ54Dによって実現され、かつ3D表示部52に固定される場合を例に説明する。 In the present embodiment, a case where the 3D display unit 52 is realized by the autostereoscopic display 52B will be described as an example. Further, in the present embodiment, a case where the line-of-sight detection unit 54 is realized by the camera 54D and fixed to the 3D display unit 52 will be described as an example.

操作入力部56は、操作者の意思表示を表す情報を取得する。例えば、操作入力部56は、操作者を表す画像又は操作者が発した音を取得する。操作入力部56は、開示の技術の意思取得部の一例である。 The operation input unit 56 acquires information representing the manifestation of intention of the operator. For example, the operation input unit 56 acquires an image representing the operator or a sound emitted by the operator. The operation input unit 56 is an example of an intention acquisition unit of the disclosed technology.

操作入力部56は、操作者の顔面撮影用のカメラ、咽頭マイク、又は呼気スイッチ等によって実現される。 The operation input unit 56 is realized by a camera for capturing the face of the operator, a pharyngeal microphone, an exhalation switch, or the like.

顔面撮影用のカメラによって操作入力部56が実現される場合、操作入力部56は、操作者の顔を表す画像を取得する。 When the operation input unit 56 is realized by the camera for face photographing, the operation input unit 56 acquires an image representing the face of the operator.

操作入力部56が咽頭マイクによって実現される場合、操作入力部56は、操作者が発した音を取得する。咽頭マイクは、操作者が発する単純音を取得する。 When the operation input unit 56 is realized by the pharyngeal microphone, the operation input unit 56 acquires the sound emitted by the operator. The pharyngeal microphone captures the simple sound emitted by the operator.

咽頭マイクと単純音とを用いることにより、口を閉じたままなど、はっきりした発声をすることなく、小音量による操作入力が実現される。例えば、オフィス程度の騒音環境より環境音が大きい場所であれば、ほぼ周囲に迷惑かけることなく操作が可能となる。 By using a pharyngeal microphone and a simple sound, operation input at a low volume can be realized without making a clear utterance such as when the mouth is closed. For example, in a place where the environmental noise is louder than the noise environment of an office, the operation can be performed without disturbing the surroundings.

操作入力部56が呼気スイッチによって実現される場合、操作入力部56は、操作者が発した呼気を取得する。 When the operation input unit 56 is realized by the exhalation switch, the operation input unit 56 acquires the exhalation emitted by the operator.

なお、操作入力部56としては複数のボタンスイッチによって実現してもよい。例えば、手による操作の通常ボタン、足による操作の通常ボタン、指の引っ張りの動きを取得するグローブ型などのウェアラブル入力装置によって実現されていてもよい。 The operation input unit 56 may be realized by a plurality of button switches. For example, it may be realized by a wearable input device such as a normal button operated by a hand, a normal button operated by a foot, or a glove type that acquires a finger pulling motion.

本実施形態では、操作入力部56が顔面撮影用のカメラによって実現される場合を例に説明する。 In the present embodiment, a case where the operation input unit 56 is realized by a camera for facial photography will be described as an example.

制御部58は、視線検出部54によって取得された操作者の顔を表す画像と、操作入力部56によって取得された操作者の意思表示を表す情報とに基づいて、3D表示部52の表示を制御する。制御部58は、図3に示すように、表示処理部60と、視点取得部62と、判定処理部64と、表示データ処理部66と、入力処理部68とを備えている。表示データ処理部66は、開示の技術の選択部の一例である。判定処理部64は、開示の技術の判定部の一例である。 The control unit 58 displays the 3D display unit 52 based on the image representing the operator's face acquired by the line-of-sight detection unit 54 and the information representing the operator's manifestation of intention acquired by the operation input unit 56. Control. As shown in FIG. 3, the control unit 58 includes a display processing unit 60, a viewpoint acquisition unit 62, a determination processing unit 64, a display data processing unit 66, and an input processing unit 68. The display data processing unit 66 is an example of a selection unit of the disclosed technology. The determination processing unit 64 is an example of the determination unit of the disclosed technology.

表示処理部60は、後述する表示データ処理部66及び入力処理部68によって出力された制御信号に応じて、操作用の3次元表示画像を生成する。そして、表示処理部60は、生成した3次元表示画像を3D表示部52に対し出力する。 The display processing unit 60 generates a three-dimensional display image for operation in response to the control signals output by the display data processing unit 66 and the input processing unit 68, which will be described later. Then, the display processing unit 60 outputs the generated three-dimensional display image to the 3D display unit 52.

操作用の3次元表示画像では、複数の仮想表面が、操作者から見て奥行き方向に並べて配置されている。また、複数の仮想表面は透過されて表示される。 In the three-dimensional display image for operation, a plurality of virtual surfaces are arranged side by side in the depth direction when viewed from the operator. In addition, a plurality of virtual surfaces are transparently displayed.

視点取得部62は、視線検出部54によって取得された操作者の両眼を表す画像に基づいて、3次元空間における操作者の視点の位置を取得する。 The viewpoint acquisition unit 62 acquires the position of the operator's viewpoint in the three-dimensional space based on the image representing both eyes of the operator acquired by the line-of-sight detection unit 54.

図14に、操作者の視点の位置の取得方法を説明するための図を示す。図14に示すように、操作者の両眼中心位置を原点とする直交三軸座標系のx軸、y軸、z軸上の単位ベクトルをそれぞれi,j,kとし、右眼の視線方向を示す単位ベクトルをu=(l,m,n)とすると、右眼の視線方向を示す直線は以下の(1)式で示される。なお、(x0,y0,z0)は操作者の視点の位置、2Eは操作者の両眼間距離である。 FIG. 14 shows a diagram for explaining a method of acquiring the position of the viewpoint of the operator. As shown in FIG. 14, the unit vectors on the x-axis, y-axis, and z-axis of the orthogonal triaxial coordinate system with the center position of both eyes of the operator as the origin are i, j, and k, respectively, and the line-of-sight direction of the right eye. Assuming that the unit vector indicating is u = (l, m, n), the straight line indicating the line-of-sight direction of the right eye is shown by the following equation (1). Note that (x0, y0, z0) is the position of the operator's viewpoint, and 2E is the distance between the operator's eyes.

上記(1)式におけるi,j,kは一次独立であるから、 Since i, j, and k in the above equation (1) are linearly independent,

となる。l,m,nは視線方向を示す直線の方向余弦とする。同様に、左眼の視線方向を示す単位ベクトルをv=(p,q,r)とすると、左眼の視線方向を示す直線は、 Will be. Let l, m, and n be the direction cosine of a straight line indicating the line-of-sight direction. Similarly, if the unit vector indicating the line-of-sight direction of the left eye is v = (p, q, r), the straight line indicating the line-of-sight direction of the left eye is

となる。上記(2)、(3)式より、以下の(4)式が成立する。 Will be. From the above equations (2) and (3), the following equation (4) is established.

そして、係数行列をH、右辺の定数項の行列をCとおくと、以下に示す(5)式となる。 Then, assuming that the coefficient matrix is H and the matrix of the constant term on the right side is C, the equation (5) shown below is obtained.

なお、上記(5)式におけるTは転置行列を示す。 In addition, T in the above equation (5) represents a transposed matrix.

したがって、視点取得部62は、上記(6)式を計算することで、操作者の視点の位置(x0,y0,z0)を算出する。 Therefore, the viewpoint acquisition unit 62 calculates the position (x0, y0, z0) of the viewpoint of the operator by calculating the above equation (6).

なお、座標系は、両眼中心位置を原点とするものに限らず、固定の表示装置や地点を基準にする場合や、操作開始時点の両眼中心を用いて頭部の位置の角度変化を反映させるなどしてもよい。本実施形態では、上記(6)式に従って算出された視点の位置を、世界座標系の視点の位置に変換し、世界座標系の視点の位置を後述する処理において用いる。 The coordinate system is not limited to the one with the center position of both eyes as the origin, but when it is based on a fixed display device or a point, or when the center of both eyes at the start of operation is used to change the angle of the head position. It may be reflected. In the present embodiment, the position of the viewpoint calculated according to the above equation (6) is converted into the position of the viewpoint of the world coordinate system, and the position of the viewpoint of the world coordinate system is used in the process described later.

判定処理部64は、操作入力部56によって取得された操作者の意思表示に関する情報に基づいて、操作者の操作の種別を判定する。操作の種別の判定内容としては、例えば、以下の(1)〜(5)が挙げられる。 The determination processing unit 64 determines the type of operation of the operator based on the information regarding the manifestation of intention of the operator acquired by the operation input unit 56. Examples of the determination content of the operation type include the following (1) to (5).

(1)選択されたアイコンの入力の確定
(2)かな漢字変換
(3)1文字削除(Back Space)
(4)カーソル移動(上、下、左、右)
(5)コンテキストメニュー表示
(1) Confirm input of the selected icon (2) Kana-Kanji conversion (3) Delete one character (Back Space)
(4) Cursor movement (up, down, left, right)
(5) Context menu display

顔面撮影用のカメラによって操作入力部56が実現される場合、例えば、判定処理部64は、操作入力部56によって取得された画像に基づいて、図15に示すように、口の形の変化を検出する。そして、判定処理部64は、口の形に応じて予め対応付けられた操作の種別に基づいて、操作者の操作の種別を判定する。 When the operation input unit 56 is realized by the camera for facial photography, for example, the determination processing unit 64 changes the shape of the mouth as shown in FIG. 15 based on the image acquired by the operation input unit 56. To detect. Then, the determination processing unit 64 determines the type of operation of the operator based on the type of operation associated in advance according to the shape of the mouth.

例えば、選択されたアイコンの入力の確定が「あ」の形に対応付けられ、入力の変換が「い」の形に対応付けられ、1文字削除(Back Space)が舌出しに対応付けられている。なお、顔面撮影用のカメラは、視線検出用のカメラと兼用してもよいし、別のカメラを用意してもよい。 For example, the confirmation of the input of the selected icon is associated with the shape of "A", the conversion of the input is associated with the shape of "I", and the deletion of one character (Back Space) is associated with the tongue out. There is. The camera for facial photography may be used in combination with the camera for detecting the line of sight, or another camera may be prepared.

図16に、操作入力部56Aが顔面撮影用のカメラによって実現される場合の処理の流れの概要を示す。図16に示すように、操作入力部56Aの顔面撮影用のカメラによって操作者の顔を表す画像が取得され、判定処理部64Aによって、顔検出、口パーツ抽出、及び口形状の識別の各処理が行われる。 FIG. 16 shows an outline of the processing flow when the operation input unit 56A is realized by a camera for facial photography. As shown in FIG. 16, an image showing the operator's face is acquired by the face photographing camera of the operation input unit 56A, and each process of face detection, mouth part extraction, and mouth shape identification is performed by the determination processing unit 64A. Is done.

操作入力部56が咽頭マイクによって実現される場合、判定処理部64は、操作入力部56によって取得された単純音に基づいて、操作者の操作を判定する。 When the operation input unit 56 is realized by the pharyngeal microphone, the determination processing unit 64 determines the operation of the operator based on the simple sound acquired by the operation input unit 56.

例えば、判定処理部64は、以下に示す(1)〜(5)に示すように単純音と操作の種別とが予め対応付けられた情報と、操作者が発した単純音とに基づいて、操作者の操作の種別を判定する。 For example, as shown in (1) to (5) below, the determination processing unit 64 is based on the information in which the simple sound and the type of operation are associated in advance and the simple sound emitted by the operator. Determine the type of operation of the operator.

操作判定処理(判定割り当て例)
(1)選択されたアイコンの入力の確定:低音かつ短音 「ン"」
(2)1文字削除(Back Space):高音かつ短音 「ム」
(3)変換:低音かつ中長音 「ヴン"」
(4)カーソル移動左←:低音かつ長音 「ヴーーー」
(5)カーソル移動右→:高音かつ長音 「ムーーー」
Operation judgment processing (judgment assignment example)
(1) Confirmation of input of selected icon: Bass and short sound "n""
(2) Delete one character (Back Space): High and short sounds "Mu"
(3) Conversion: Bass and medium-long sound "Vun""
(4) Cursor movement left ←: Bass and long sound "Voo"
(5) Cursor movement right →: High-pitched and long-pitched sound "Moo"

図17に、操作入力部56が咽頭マイクによって実現される場合の処理の流れの概要を示す。図17に示すように、操作入力部56Bの咽頭マイクによって操作者が発した音が取得され、判定処理部64Bによって、入力された音を判定する音入力判定、及び判定された音に対応付けられた操作の種別を判定する操作音識別の各処理が行われる。 FIG. 17 shows an outline of the processing flow when the operation input unit 56 is realized by the pharyngeal microphone. As shown in FIG. 17, the sound emitted by the operator is acquired by the pharyngeal microphone of the operation input unit 56B, and the sound input determination for determining the input sound is performed by the determination processing unit 64B, and the determined sound is associated with the determined sound. Each operation sound identification process for determining the type of operation performed is performed.

操作入力部56が呼気スイッチによって実現される場合、判定処理部64は、操作入力部56によって取得された呼気に基づいて、操作者の操作を判定する。 When the operation input unit 56 is realized by the exhalation switch, the determination processing unit 64 determines the operation of the operator based on the exhaled air acquired by the operation input unit 56.

例えば、判定処理部64は、以下に示す(1)〜(5)に示すように割り当てられた、操作者が発した呼気と操作とに応じて、操作者の操作を判定する。 For example, the determination processing unit 64 determines the operation of the operator according to the exhalation and the operation issued by the operator, which are assigned as shown in (1) to (5) below.

操作判定処理(判定割り当て例)
(1)選択されたアイコンの入力の確定:吐く(短) 「フ」
(2)1文字削除(Back Space):吸う(長く) 「スーー」
(3)変換:吸う(短) 「スゥ」
(4)カーソル移動左←:吐く(長く) 「フー」
(5)カーソル移動右→:吐く(短連続で2回) 「フフ」
Operation judgment processing (judgment assignment example)
(1) Confirmation of input of selected icon: Vomiting (short) "F"
(2) Delete one character (Back Space): Suck (long) "Sue"
(3) Conversion: Suck (short) "Su"
(4) Move cursor left ←: Vomiting (long) "Fu"
(5) Move the cursor to the right →: Vomiting (twice in a row) "Fufu"

図18に、操作入力部56が呼気スイッチによって実現される場合の処理の流れの概要を示す。図18に示すように、操作入力部56Cの呼気スイッチを構成する圧電素子によって操作者が発した呼気が電圧値に変換されて取得される。そして、判定処理部64Cによって、取得された電圧値に基づく加圧パターンが示す呼気に対応付けられた操作の種別を判定する加圧パターン識別の処理が行われる。 FIG. 18 shows an outline of the processing flow when the operation input unit 56 is realized by the exhalation switch. As shown in FIG. 18, the exhaled air emitted by the operator is converted into a voltage value and acquired by the piezoelectric element constituting the exhaled air switch of the operation input unit 56C. Then, the determination processing unit 64C performs a pressurization pattern identification process for determining the type of operation associated with the exhaled breath indicated by the pressurization pattern based on the acquired voltage value.

本実施形態では、判定処理部64は、操作入力部56Aによって取得された画像に基づいて、上記図15に示すように、操作者の口の形を検出する。そして、判定処理部64Aは、操作者の口の形に基づいて、上記図16に示すように、操作者の操作の種別を判定する。 In the present embodiment, the determination processing unit 64 detects the shape of the operator's mouth based on the image acquired by the operation input unit 56A, as shown in FIG. Then, the determination processing unit 64A determines the type of operation of the operator based on the shape of the operator's mouth, as shown in FIG.

表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置と、判定処理部64によって判定された操作の種別とに基づいて、表示処理部60によって生成される3次元表示画像を制御する。 The display data processing unit 66 is a three-dimensional display generated by the display processing unit 60 based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit 62 and the type of operation determined by the determination processing unit 64. Control the image.

例えば、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、操作者の視点の位置に対応するアイコン4を選択する。そして、表示データ処理部66は、選択されたアイコン4が選択状態であることを表す操作用の3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。 For example, the display data processing unit 66 selects the icon 4 corresponding to the position of the operator's viewpoint based on the position of the operator's viewpoint acquired by the viewpoint acquisition unit 62. Then, the display data processing unit 66 outputs a control signal to the display processing unit 60 so as to generate a three-dimensional display image for operation indicating that the selected icon 4 is in the selected state.

また、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置と、判定処理部64によって判定された操作の種別とに基づいて、アイコン4の選択を確定するか否かを判定する。例えば、表示データ処理部66は、操作の種別が「確定」である場合には、アイコン4の選択を確定する。 Further, whether or not the display data processing unit 66 confirms the selection of the icon 4 based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit 62 and the type of operation determined by the determination processing unit 64. Is determined. For example, the display data processing unit 66 confirms the selection of the icon 4 when the operation type is “confirmed”.

そして、表示データ処理部66は、アイコン4が確定状態であるような3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。また、表示データ処理部66は、選択が確定されたアイコン4に対応するキーの情報(例えば文字「A」等)を、入力処理部68へ出力する。 Then, the display data processing unit 66 outputs a control signal to the display processing unit 60 so as to generate a three-dimensional display image in which the icon 4 is in a fixed state. Further, the display data processing unit 66 outputs key information (for example, the character "A" or the like) corresponding to the icon 4 whose selection has been confirmed to the input processing unit 68.

一方、表示データ処理部66は、操作の種別が「確定」以外である場合(例えば、「入力の変換」「1文字削除」等)である場合には、操作の種別に応じた情報を、入力処理部68へ出力する。 On the other hand, when the operation type is other than "confirmation" (for example, "input conversion", "single character deletion", etc.), the display data processing unit 66 provides information according to the operation type. Output to the input processing unit 68.

また、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に応じて仮想表面の透過の度合いが変更された3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。 Further, the display data processing unit 66 generates the display processing unit 60 so as to generate a three-dimensional display image in which the degree of transparency of the virtual surface is changed according to the position of the viewpoint of the operator acquired by the viewpoint acquisition unit 62. Output the control signal to.

具体的には、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、視点の位置に対応する仮想表面とは異なる他の仮想表面の透過の度合いが高くなるように制御する。 Specifically, the display data processing unit 66 determines the degree of transparency of another virtual surface different from the virtual surface corresponding to the position of the viewpoint based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit 62. Control to be higher.

例えば、表示データ処理部66は、操作者の視点の位置の奥行き方向の位置x0で対応する仮想表面より手前の仮想表面の透過度を高くするように制御する。そして、表示データ処理部66は、操作者の視点の位置が手前に戻れば、手前の仮想表面の透過度を元に戻すというように制御を行う。なお、仮想表面の100%の透過は、透過表示した層を再度「見る」ことが出来なくなるため、例えば、仮想表面の枠のみが100%透過しないように制御される。 For example, the display data processing unit 66 controls so that the transparency of the virtual surface in front of the corresponding virtual surface is made higher at the position x0 in the depth direction of the position of the viewpoint of the operator. Then, the display data processing unit 66 controls such that when the position of the viewpoint of the operator returns to the front, the transparency of the virtual surface in front is restored. Note that 100% transparency of the virtual surface is controlled so that only the frame of the virtual surface is not 100% transparent because the transparently displayed layer cannot be "seen" again.

また、例えば、表示データ処理部66は、視点の位置の仮想表面より手前の仮想表面のアイコン4の背景面(例えば、ウィンドウ)を透過度100%になるように制御する。アイコン4本体と背景面の透過度を個別に変更し、奥側の表示面を注視し易くしながら、手前側のアイコン4の選択も容易になる。 Further, for example, the display data processing unit 66 controls the background surface (for example, a window) of the icon 4 on the virtual surface in front of the virtual surface at the viewpoint position so that the transparency is 100%. By changing the transparency of the icon 4 main body and the background surface individually, it becomes easy to gaze at the display surface on the back side and to select the icon 4 on the front side.

また、例えば、表示データ処理部66は、視点の位置の奥行き方向の位置x0で対応する仮想表面より手前、またはその他の仮想表面のアイコン4内の表示(例えば、文字刻印など)の透過度を高くするように制御する。 Further, for example, the display data processing unit 66 determines the transparency of the display (for example, character engraving) in front of the corresponding virtual surface at the position x0 in the depth direction of the viewpoint position or in the icon 4 of the other virtual surface. Control to make it higher.

また、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に応じて仮想表面の透過の度合いが変更された3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。 Further, the display data processing unit 66 generates the display processing unit 60 so as to generate a three-dimensional display image in which the degree of transparency of the virtual surface is changed according to the position of the viewpoint of the operator acquired by the viewpoint acquisition unit 62. Output the control signal to.

また、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、操作者の視点の位置の奥行き方向の位置x0で対応する仮想表面の位置に応じて、入力表示面の位置を制御する。例えば、表示データ処理部66は、図19Aに示すように、文字入力のための入力表示面5Nの奥行き方向の位置を、視点の位置の仮想表面の奥行き位置に移動させるように制御する。図19Aに示すように、操作者の視点の位置が仮想表面5Aに含まれるアイコン4に対応している場合、表示データ処理部66は、視点の位置に対応する仮想表面5Aの奥行き位置に、入力表示面5Nが表示されるように制御する。また、操作者の視点の位置が仮想表面5Aから仮想表面5Bのアイコン4へ移動した場合、表示データ処理部66は、仮想表面5Bの奥行き位置に入力表示面5Nが表示されるように制御する。選択状態のアイコン4の仮想表面と入力表示面の奥行き方向の位置を合わせることで、不要な奥行き方向の視線移動が防止される。 Further, the display data processing unit 66 is based on the position of the operator's viewpoint acquired by the viewpoint acquisition unit 62, and the position of the operator's viewpoint in the depth direction x0 corresponds to the position of the corresponding virtual surface. Control the position of the input display surface. For example, as shown in FIG. 19A, the display data processing unit 66 controls to move the position of the input display surface 5N for character input in the depth direction to the depth position of the virtual surface at the viewpoint position. As shown in FIG. 19A, when the position of the viewpoint of the operator corresponds to the icon 4 included in the virtual surface 5A, the display data processing unit 66 moves the position of the viewpoint to the depth position of the virtual surface 5A corresponding to the position of the viewpoint. Control so that the input display surface 5N is displayed. Further, when the position of the viewpoint of the operator moves from the virtual surface 5A to the icon 4 of the virtual surface 5B, the display data processing unit 66 controls so that the input display surface 5N is displayed at the depth position of the virtual surface 5B. .. By aligning the virtual surface of the icon 4 in the selected state with the position of the input display surface in the depth direction, unnecessary movement of the line of sight in the depth direction is prevented.

図19Bに、表示データ処理部66の処理の一例を説明するための説明図を示す。 FIG. 19B shows an explanatory diagram for explaining an example of processing by the display data processing unit 66.

まず、図19Bの場面7Aに示すように、操作者の視点の位置が視点取得部62によって取得される。場面7Aでは、操作者の視点が、操作者から見て最も手前の仮想表面5Aに位置していると検出される。 First, as shown in scene 7A of FIG. 19B, the position of the viewpoint of the operator is acquired by the viewpoint acquisition unit 62. In scene 7A, it is detected that the operator's viewpoint is located on the foremost virtual surface 5A as seen from the operator.

そして、場面7Aに示すように、操作者の視点によって「a」に対応するアイコン4が選択され、操作者の入力の確定操作によりアイコン4の文字「a」が入力される。 Then, as shown in scene 7A, the icon 4 corresponding to "a" is selected from the viewpoint of the operator, and the character "a" of the icon 4 is input by the confirmation operation of the input of the operator.

この場合、図19Bの場面7Aに示すように、「a」に対応するアイコン4が選択状態であることを表す3次元表示画像が操作者に対して表示された後、「a」に対応するアイコン4が確定状態であることを表す操作用の3次元表示画像が操作者に対して表示される。また、上記図19Aにおいて説明したように、入力表示面5Nは、仮想表面5Aと同じ奥行き位置に表示される。 In this case, as shown in scene 7A of FIG. 19B, after a three-dimensional display image indicating that the icon 4 corresponding to “a” is in the selected state is displayed to the operator, it corresponds to “a”. A three-dimensional display image for operation indicating that the icon 4 is in the confirmed state is displayed to the operator. Further, as described in FIG. 19A, the input display surface 5N is displayed at the same depth position as the virtual surface 5A.

次に、図19Bの場面7Bにおいて、操作者の視点の位置が手前から2層目の仮想表面5Bへ移動したことが視点取得部62によって検出されると、表示データ処理部66は、1層目の仮想表面5Aの透過の度合いを引き上げるように制御する。また、表示データ処理部66は、上記図19Aにおいて説明したように、入力表示面5Nの表示位置を、操作者の視点の位置に合わせて1層目の仮想表面5Aから2層目の仮想表面5Bの奥行き位置に移動させるように制御する。 Next, in scene 7B of FIG. 19B, when the viewpoint acquisition unit 62 detects that the position of the operator's viewpoint has moved from the front to the virtual surface 5B of the second layer, the display data processing unit 66 has the first layer. It is controlled to increase the degree of transmission of the virtual surface 5A of the eye. Further, as described in FIG. 19A, the display data processing unit 66 adjusts the display position of the input display surface 5N to the position of the viewpoint of the operator, and sets the virtual surface of the first layer to the virtual surface of the second layer. It is controlled to move to the depth position of 5B.

場面7Bの例では、操作者の視点の位置が2層目の仮想表面5Bに移動した場合、表示データ処理部66は、1層目の仮想表面5Aの背景の透過の度合いを100%、1層目の仮想表面5Aのアイコン4上の文字の透過の度合いを引き上げるように制御する。 In the example of scene 7B, when the position of the viewpoint of the operator moves to the virtual surface 5B of the second layer, the display data processing unit 66 sets the degree of transparency of the background of the virtual surface 5A of the first layer to 100%, 1 The degree of transparency of the characters on the icon 4 of the virtual surface 5A of the layer is controlled to be increased.

なお、場面7Bに示すように、「k」に対応するアイコン4が選択状態であることを表す操作用の3次元表示画像が操作者に対して表示される。なお、図19Aでは、アイコン内に示される斜線が選択状態であることを表し、アイコン内に示されるドットが確定状態を表す。 As shown in scene 7B, a three-dimensional display image for operation indicating that the icon 4 corresponding to "k" is in the selected state is displayed to the operator. In FIG. 19A, the diagonal line shown in the icon indicates the selected state, and the dot shown in the icon indicates the confirmed state.

次に、場面7Bにおいて選択された「k」に対応するアイコン4に対する、操作者の入力の確定操作が行われることなく、場面7Cに示すように、操作者の視点の位置が2層目の仮想表面5B上で移動し、アイコン4「o」が選択される。また、入力表示面5Nの表示位置が、仮想表面5Bの奥行き位置に表示されるように制御される。そして、「o」が選択状態であることを表す操作用の3次元表示画像が表示される。そして、操作者の入力の確定操作によって、アイコン4の文字「o」が入力表示面5Nに反映される。 Next, as shown in scene 7C, the position of the operator's viewpoint is on the second layer without performing the operation of confirming the input of the operator with respect to the icon 4 corresponding to the "k" selected in scene 7B. Move on the virtual surface 5B and icon 4 "o" is selected. Further, the display position of the input display surface 5N is controlled so as to be displayed at the depth position of the virtual surface 5B. Then, a three-dimensional display image for operation indicating that "o" is in the selected state is displayed. Then, the character "o" of the icon 4 is reflected on the input display surface 5N by the confirmation operation of the input of the operator.

また、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、視点の位置の奥行き方向の位置x0に対応する仮想表面の透過の度合いが低くなるように制御してもよい。 Further, the display data processing unit 66 reduces the degree of transparency of the virtual surface corresponding to the position x0 in the depth direction of the viewpoint position based on the position of the operator's viewpoint acquired by the viewpoint acquisition unit 62. You may control it.

また、表示データ処理部66は、複数の仮想表面に含まれるアイコン4の各々は、仮想表面の位置が操作者から見て奥行き方向に位置するほど、アイコン4の大きさが大きくなるように、仮想表面の表示を制御してもよい。また、表示データ処理部66は、複数の仮想表面に含まれるアイコン4の各々は、仮想表面の位置が操作者から見て奥行き方向に位置するほど、隣に配置されたアイコン4との間隔が広くなるように、仮想表面の表示を制御してもよい。 Further, in the display data processing unit 66, the size of each of the icons 4 included in the plurality of virtual surfaces becomes larger as the position of the virtual surface is located in the depth direction when viewed from the operator. You may control the display of the virtual surface. Further, in the display data processing unit 66, each of the icons 4 included in the plurality of virtual surfaces is spaced from the adjacent icons 4 so that the position of the virtual surface is located in the depth direction when viewed from the operator. The display of the virtual surface may be controlled so as to be wide.

図20に、奥行き方向に位置するほど、アイコン4の大きさが大きくなり、かつ隣に配置されたアイコン4との間隔が広くなるように制御された仮想表面の一例を示す。図20に示すように、1層目の仮想表面5Aのアイコン4、2層目の仮想表面5Bのアイコン4、及び3層目の仮想表面5Cのアイコン4は、仮想表面の階層に応じて大きさが制御されている。 FIG. 20 shows an example of a virtual surface controlled so that the size of the icon 4 becomes larger and the distance from the icon 4 arranged next to the icon 4 becomes wider as the icon 4 is located in the depth direction. As shown in FIG. 20, the icon 4 of the virtual surface 5A of the first layer, the icon 4 of the virtual surface 5B of the second layer, and the icon 4 of the virtual surface 5C of the third layer are large according to the layer of the virtual surface. Is controlled.

図20に示すように仮想表面を制御することにより、奥行き方向の視点先のアイコン4の検出が容易になる。操作者の視点の位置が奥行き方向に行くほど、アイコン4のサイズと間隔を広くすることにより、遠い位置でのアイコン4間の視線の移動角度が大きくなる。すなわち、手前にある仮想表面上での視線の移動量と、奥行き方向に遠い位置にある仮想表面上での視線の移動量とを同等にすることができ、視点の位置の検出が容易になる。 By controlling the virtual surface as shown in FIG. 20, it becomes easy to detect the icon 4 at the viewpoint in the depth direction. As the position of the operator's viewpoint goes in the depth direction, the size and spacing of the icons 4 are widened, so that the moving angle of the line of sight between the icons 4 at a distant position becomes large. That is, the amount of movement of the line of sight on the virtual surface in the foreground can be made equal to the amount of movement of the line of sight on the virtual surface located far in the depth direction, and the position of the viewpoint can be easily detected. ..

また、表示データ処理部66は、アイコン4の少なくとも一部分が、アイコン4を含む仮想表面とは異なる他の仮想表面に含まれるアイコン4と重ならないように配置するように、仮想表面の表示を制御してもよい。 Further, the display data processing unit 66 controls the display of the virtual surface so that at least a part of the icon 4 is arranged so as not to overlap the icon 4 included in another virtual surface different from the virtual surface including the icon 4. You may.

図21に、アイコン4が重ならないように配置された仮想表面の一例を示す。図21は、複数の仮想表面を真正面から見た場合の、見かけ上のアイコン4の配置の例である。図21では、アイコン4のカッコ内の表記が各仮想表面(5A〜5E)に対応し、例えばアイコン4(5A)は、仮想表面5Aに含まれるアイコン4を表す。図21に示すように、操作者の視線上において、各仮想表面のアイコン4があまり重ならないように配置される。 FIG. 21 shows an example of virtual surfaces arranged so that the icons 4 do not overlap. FIG. 21 is an example of the apparent arrangement of the icons 4 when a plurality of virtual surfaces are viewed from the front. In FIG. 21, the notation in parentheses of the icon 4 corresponds to each virtual surface (5A to 5E), for example, the icon 4 (5A) represents the icon 4 included in the virtual surface 5A. As shown in FIG. 21, the icons 4 on each virtual surface are arranged so as not to overlap so much in the line of sight of the operator.

図22に、アイコン4が重ならないように配置された各層の仮想表面の例を示す。図22に示すように、各仮想表面の表示サイズは異なり、操作者から見て手前の仮想表面のアイコン4は小さく表示され、操作者から見て奥の仮想表面のアイコン4は大きく表示されるように制御される。 FIG. 22 shows an example of virtual surfaces of each layer arranged so that the icons 4 do not overlap. As shown in FIG. 22, the display size of each virtual surface is different, the icon 4 of the virtual surface in front of the operator is displayed small, and the icon 4 of the virtual surface in the back is displayed large when viewed from the operator. Is controlled.

また、アイコン4の種類に応じてアイコン4が複数の仮想表面に分類されて配置されていてもよい。例えば、1層目にはひらがなのアイコン4を含む仮想表面が表示され、2層目には英字のアイコン4を含む仮想表面が表示され、3層目には数字を含む仮想表面が表示されるようにしてもよい。 Further, the icons 4 may be classified and arranged on a plurality of virtual surfaces according to the type of the icons 4. For example, the virtual surface including the hiragana icon 4 is displayed on the first layer, the virtual surface including the alphabetic icon 4 is displayed on the second layer, and the virtual surface including the numbers is displayed on the third layer. You may do so.

また、アイコン4の各々の形状又は色が、アイコン4の選択によって入力される情報の種類に応じて定められているようにしてもよい。 Further, each shape or color of the icon 4 may be determined according to the type of information input by selecting the icon 4.

さらに、アイコン4の各々の形状又は色が、仮想表面内のアイコン4の位置に応じて定められているようにしてもよい。 Further, each shape or color of the icon 4 may be determined according to the position of the icon 4 in the virtual surface.

図23に、アイコン4の各々の形状及び色が、アイコン4の選択によって入力される情報の種類に応じて定められ、かつ仮想表面内のアイコン4の位置に応じて定められている場合の一例を示す。 FIG. 23 shows an example in which each shape and color of the icon 4 is determined according to the type of information input by selecting the icon 4, and is determined according to the position of the icon 4 in the virtual surface. Is shown.

人間の視覚認識特性により、形と色とは独立して処理される。また、文字よりも、形と色の方が速く認識される。この特性を利用して、文字毎に異なる形状と色のアイコン4を使用することで、操作者の文字とアイコン4との配置の関連付け記憶が促進され、選択操作のアイコン探索の時間短縮が可能になる。 Due to human visual perception characteristics, shapes and colors are processed independently. Also, shapes and colors are recognized faster than letters. By utilizing this characteristic and using the icon 4 having a different shape and color for each character, the association memory of the arrangement between the operator's character and the icon 4 is promoted, and the icon search time for the selection operation can be shortened. become.

また、異なる表示画面においては、同じ色や形が使われていても、識別への影響が少ないという特性がわかっている。この特性を利用して、奥行き方向に異なる表示面では、他の表示面と同じ色や形状を使ってもアイコン識別への影響が少なくて済む。 Further, it is known that even if the same color and shape are used on different display screens, the influence on identification is small. By utilizing this characteristic, even if the same color and shape as other display surfaces are used on the display surfaces different in the depth direction, the influence on the icon identification can be small.

従って、操作者によるアイコン4の識別が向上する。 Therefore, the identification of the icon 4 by the operator is improved.

入力処理部68は、表示データ処理部66によって選択が確定されたアイコン4に対応するキーの情報を取得する。そして、入力処理部68は、選択が確定されたアイコン4に対応するキーが、入力表示面に表示されるように、表示処理部60へ制御信号を出力する。 The input processing unit 68 acquires the key information corresponding to the icon 4 whose selection has been confirmed by the display data processing unit 66. Then, the input processing unit 68 outputs a control signal to the display processing unit 60 so that the key corresponding to the icon 4 whose selection is confirmed is displayed on the input display surface.

また、入力処理部68は、表示データ処理部66によって出力された操作の種別に応じた状態を入力表示面に反映するように、表示処理部60へ制御信号を出力する。 Further, the input processing unit 68 outputs a control signal to the display processing unit 60 so as to reflect the state corresponding to the type of operation output by the display data processing unit 66 on the input display surface.

入力装置50の制御部58は、例えば図24に示すコンピュータ80で実現することができる。コンピュータ80はCPU81、一時記憶領域としてのメモリ82、及び不揮発性の記憶部83を備える。また、コンピュータ80は、入出力I/F84と、記録媒体89に対するデータの読み込み及び書き込みを制御するread/write(R/W)部85と、インターネット等のネットワークに接続されるネットワークI/F86とを備える。CPU81、メモリ82、記憶部83、入出力I/F84、R/W部85、及びネットワークI/F86は、バス87を介して互いに接続される。 The control unit 58 of the input device 50 can be realized by, for example, the computer 80 shown in FIG. The computer 80 includes a CPU 81, a memory 82 as a temporary storage area, and a non-volatile storage unit 83. Further, the computer 80 includes an input / output I / F 84, a read / write (R / W) unit 85 that controls reading and writing of data to the recording medium 89, and a network I / F 86 connected to a network such as the Internet. To be equipped. The CPU 81, the memory 82, the storage unit 83, the input / output I / F 84, the R / W unit 85, and the network I / F 86 are connected to each other via the bus 87.

記憶部83は、Hard Disk Drive(HDD)、solid state drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部83には、コンピュータ80を入力装置50の制御部58として機能させるための入力プログラム90が記憶される。入力プログラム90は、表示処理プロセス92と、視点取得処理プロセス93と、判定処理プロセス94と、表示データ処理プロセス95と、入力処理プロセス96とを有する。 The storage unit 83 can be realized by a Hard Disk Drive (HDD), a solid state drive (SSD), a flash memory, or the like. The storage unit 83 as a storage medium stores an input program 90 for causing the computer 80 to function as a control unit 58 of the input device 50. The input program 90 includes a display processing process 92, a viewpoint acquisition processing process 93, a determination processing process 94, a display data processing process 95, and an input processing process 96.

CPU81は、入力プログラム90を記憶部83から読み出してメモリ82に展開し、入力プログラム90の各々が有するプロセスを順次実行する。 The CPU 81 reads the input program 90 from the storage unit 83, expands it in the memory 82, and sequentially executes the processes of each of the input programs 90.

CPU81は、表示処理プロセス92を実行することで、図3に示す表示処理部60として動作する。また、CPU81は、視点取得処理プロセス93を実行することで、図3に示す視点取得部62として動作する。また、CPU81は、判定処理プロセス94を実行することで、図3に示す判定処理部64として動作する。また、CPU81は、表示データ処理プロセス95を実行することで、図3に示す表示データ処理部66として動作する。また、CPU81は、入力処理プロセス96を実行することで、図3に示す入力処理部68として動作する。 The CPU 81 operates as the display processing unit 60 shown in FIG. 3 by executing the display processing process 92. Further, the CPU 81 operates as the viewpoint acquisition unit 62 shown in FIG. 3 by executing the viewpoint acquisition processing process 93. Further, the CPU 81 operates as the determination processing unit 64 shown in FIG. 3 by executing the determination processing process 94. Further, the CPU 81 operates as the display data processing unit 66 shown in FIG. 3 by executing the display data processing process 95. Further, the CPU 81 operates as the input processing unit 68 shown in FIG. 3 by executing the input processing process 96.

このように、入力プログラム90を実行したコンピュータ80が、入力装置50として機能することになる。 In this way, the computer 80 that executes the input program 90 functions as the input device 50.

なお、入力プログラム90により実現される機能は、例えば半導体集積回路、より詳しくはApplication Specific Integrated Circuit(ASIC)等で実現することも可能である。 The function realized by the input program 90 can also be realized by, for example, a semiconductor integrated circuit, more specifically, an Application Specific Integrated Circuit (ASIC) or the like.

次に、図25を参照して、本実施形態に係る入力装置50の作用について説明する。 Next, the operation of the input device 50 according to the present embodiment will be described with reference to FIG. 25.

図25は、入力装置50の制御部58で実行される制御処理のフローの一例を示す。 FIG. 25 shows an example of a flow of control processing executed by the control unit 58 of the input device 50.

入力装置50の3D表示部52によって操作用の3次元表示画像が表示され、視線検出部54によって操作者の両眼の画像が逐次取得され、操作入力部56によって操作者の顔画像が逐次取得されているときに、図25に示す制御処理ルーチンが実行される。 The 3D display unit 52 of the input device 50 displays a three-dimensional display image for operation, the line-of-sight detection unit 54 sequentially acquires images of both eyes of the operator, and the operation input unit 56 sequentially acquires the face image of the operator. When this is done, the control processing routine shown in FIG. 25 is executed.

<制御処理ルーチン> <Control processing routine>

ステップS10において、視点取得部62は、視線検出部54によって取得された操作者の両眼を表す画像を取得する。 In step S10, the viewpoint acquisition unit 62 acquires an image representing both eyes of the operator acquired by the line-of-sight detection unit 54.

ステップS12において、視点取得部62は、上記ステップS10で取得された操作者の両眼を表す画像に基づいて、上記(1)式〜(3)式に従って、操作者の視線ベクトルを検出する。 In step S12, the viewpoint acquisition unit 62 detects the operator's line-of-sight vector according to the above equations (1) to (3) based on the image representing both eyes of the operator acquired in step S10.

ステップS14において、視点取得部62は、上記ステップS12で検出された視線ベクトルに基づいて、上記(4)式〜(6)式に従って、操作者の視点の位置を算出する。 In step S14, the viewpoint acquisition unit 62 calculates the position of the operator's viewpoint according to the above equations (4) to (6) based on the line-of-sight vector detected in step S12.

ステップS16において、視点取得部62は、上記ステップS14で算出された操作者の視点の位置に基づいて、世界座標系の視点の位置を算出する。 In step S16, the viewpoint acquisition unit 62 calculates the position of the viewpoint in the world coordinate system based on the position of the operator's viewpoint calculated in step S14.

ステップS18において、表示データ処理部66は、上記ステップS16で算出された操作者の視点の位置に基づいて、視点の位置に対応する位置に、操作可能なアイコン4が表示されているか否かを判定する。視点の位置に対応する位置に、操作可能なアイコン4が表示されている場合には、ステップS20へ進む。一方、視点の位置に対応する位置に、操作可能なアイコン4が表示されていない場合には、ステップS22へ進む。 In step S18, the display data processing unit 66 determines whether or not the operable icon 4 is displayed at a position corresponding to the position of the viewpoint based on the position of the viewpoint of the operator calculated in step S16. judge. If the operable icon 4 is displayed at the position corresponding to the position of the viewpoint, the process proceeds to step S20. On the other hand, if the operable icon 4 is not displayed at the position corresponding to the position of the viewpoint, the process proceeds to step S22.

ステップS20において、表示データ処理部66は、上記ステップS16で算出された操作者の視点の位置に対応するアイコン4を選択する。そして、表示データ処理部66は、選択されたアイコン4が選択状態であることが表示された操作用の3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。表示処理部60は、出力された制御信号に応じて、操作用の3次元表示画像を生成する。そして、表示処理部60は、生成した操作用の3次元表示画像を3D表示部52に対し出力する。そして、3D表示部52は、表示処理部60によって生成された操作用の3次元表示画像を操作者に対し表示する。 In step S20, the display data processing unit 66 selects the icon 4 corresponding to the position of the operator's viewpoint calculated in step S16. Then, the display data processing unit 66 outputs a control signal to the display processing unit 60 so as to generate a three-dimensional display image for operation indicating that the selected icon 4 is in the selected state. The display processing unit 60 generates a three-dimensional display image for operation according to the output control signal. Then, the display processing unit 60 outputs the generated three-dimensional display image for operation to the 3D display unit 52. Then, the 3D display unit 52 displays the three-dimensional display image for operation generated by the display processing unit 60 to the operator.

ステップS22において、表示データ処理部66は、上記ステップS16で得られた操作者の視点の位置に基づいて、仮想表面の透過の度合いを変更する。また、表示データ処理部66は、上記ステップS16で得られた操作者の視点の位置に応じて仮想表面の透過の度合いが変更された操作用の3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。表示処理部60は、出力された制御信号に応じて、操作用の3次元表示画像を生成する。そして、表示処理部60は、生成した操作用の3次元表示画像を3D表示部52に対し出力する。3D表示部52は、表示処理部60によって生成された操作用の3次元表示画像を操作者に対し表示する。 In step S22, the display data processing unit 66 changes the degree of transparency of the virtual surface based on the position of the viewpoint of the operator obtained in step S16. Further, the display data processing unit 66 performs display processing so as to generate a three-dimensional display image for operation in which the degree of transparency of the virtual surface is changed according to the position of the viewpoint of the operator obtained in step S16. A control signal is output to unit 60. The display processing unit 60 generates a three-dimensional display image for operation according to the output control signal. Then, the display processing unit 60 outputs the generated three-dimensional display image for operation to the 3D display unit 52. The 3D display unit 52 displays the three-dimensional display image for operation generated by the display processing unit 60 to the operator.

ステップS24において、判定処理部64は、操作入力部56によって取得された操作者の画像を取得する。 In step S24, the determination processing unit 64 acquires the image of the operator acquired by the operation input unit 56.

ステップS26において、判定処理部64は、上記ステップS24で取得された画像に基づいて、操作者の操作を判定する。操作者の操作の種別が判定された場合には、ステップS28へ進む。一方、何れの操作の種別にも判定されなかった場合には、操作者の操作が無いと判断し、ステップS10へ戻る。 In step S26, the determination processing unit 64 determines the operation of the operator based on the image acquired in step S24. If the type of operation of the operator is determined, the process proceeds to step S28. On the other hand, if it is not determined by any of the operation types, it is determined that there is no operation by the operator, and the process returns to step S10.

ステップS28において、判定処理部64は、上記ステップS26での判定結果に基づいて、操作の種別は入力の確定の操作であるか否かを判定する。操作の種別が入力の確定の操作である場合には、ステップS30へ進む。一方、操作の種別が入力の確定の操作でない場合には、ステップS34へ進む。 In step S28, the determination processing unit 64 determines whether or not the type of operation is an input confirmation operation based on the determination result in step S26. If the type of operation is an operation for confirming the input, the process proceeds to step S30. On the other hand, if the type of operation is not the operation of confirming the input, the process proceeds to step S34.

ステップS30において、表示データ処理部66は、上記ステップS20で選択された選択中のアイコンがあるか否かを判定する。選択状態のアイコンがある場合には、ステップS32へ進む。一方、選択中のアイコン4がない場合には、ステップS10へ戻る。 In step S30, the display data processing unit 66 determines whether or not there is the selected icon selected in step S20. If there is an icon in the selected state, the process proceeds to step S32. On the other hand, if there is no selected icon 4, the process returns to step S10.

ステップS32において、表示データ処理部66は、上記ステップS16で取得された操作者の視点の位置に対応する、選択状態のアイコン4の表示が確定状態であるような3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。また、表示データ処理部66は、選択が確定されたアイコン4に対応するキーの情報を、入力処理部68へ出力する。 In step S32, the display data processing unit 66 generates a three-dimensional display image in which the display of the icon 4 in the selected state corresponds to the position of the viewpoint of the operator acquired in step S16. The control signal is output to the display processing unit 60. Further, the display data processing unit 66 outputs the key information corresponding to the icon 4 whose selection is confirmed to the input processing unit 68.

ステップS34において、入力処理部68は、上記ステップS32で出力されたキーの情報を取得する。そして、入力処理部68は、選択が確定されたアイコン4に対応するキーが、入力表示に表示されるように、表示処理部60へ制御信号を出力する。また、入力処理部68は、上記ステップS28で出力された操作の種別に応じた状態を入力表示面に反映するように、表示処理部60へ制御信号を出力する。 In step S34, the input processing unit 68 acquires the key information output in step S32. Then, the input processing unit 68 outputs a control signal to the display processing unit 60 so that the key corresponding to the icon 4 whose selection is confirmed is displayed on the input display. Further, the input processing unit 68 outputs a control signal to the display processing unit 60 so as to reflect the state corresponding to the type of operation output in step S28 on the input display surface.

ステップS36において、表示処理部60は、上記ステップS34で出力された制御信号に応じて、操作用の3次元表示画像を生成する。そして、表示処理部60は、生成した表示画像を3D表示部52に対し出力する。 In step S36, the display processing unit 60 generates a three-dimensional display image for operation in response to the control signal output in step S34. Then, the display processing unit 60 outputs the generated display image to the 3D display unit 52.

3D表示部52は、生成された操作用の3次元表示画像を操作者に対し表示する。 The 3D display unit 52 displays the generated three-dimensional display image for operation to the operator.

以上説明したように、本実施形態の入力装置50は、入力操作用のアイコン4を含む複数の仮想表面を、操作者から見て奥行き方向に並べて配置し、かつ複数の仮想表面を透過させて3次元表示部に表示させる。そして、入力装置50は、操作者の視点の位置に基づいて、視点の位置に対応するアイコン4を選択する。これにより、操作者は、入力操作をスムーズに行うことができる。 As described above, in the input device 50 of the present embodiment, a plurality of virtual surfaces including the icon 4 for input operation are arranged side by side in the depth direction when viewed from the operator, and the plurality of virtual surfaces are transmitted through the plurality of virtual surfaces. It is displayed on the three-dimensional display unit. Then, the input device 50 selects the icon 4 corresponding to the position of the viewpoint based on the position of the viewpoint of the operator. As a result, the operator can smoothly perform the input operation.

また、本実施形態の入力装置50は、多様な入力操作に対応する多数のアイコン4を、一覧性及び選択性が向上するように配置するため、操作者はアイコン4をスムーズに選択して操作することができる。 Further, since the input device 50 of the present embodiment arranges a large number of icons 4 corresponding to various input operations so as to improve the listability and selectivity, the operator smoothly selects and operates the icons 4. can do.

<第2実施形態>
次に、第2実施形態に係る入力装置について説明する。第2実施形態では、仮想表面がタブ領域を有している。なお、第2実施形態に係る入力装置の構成は、図3に示す第1実施形態に係る入力装置50の構成と同様であるため、同一符号を用いて、異なる部分について説明する。
<Second Embodiment>
Next, the input device according to the second embodiment will be described. In the second embodiment, the virtual surface has a tabbed area. Since the configuration of the input device according to the second embodiment is the same as the configuration of the input device 50 according to the first embodiment shown in FIG. 3, different parts will be described using the same reference numerals.

第2実施形態では、仮想表面毎にタブ領域が設けられ、操作者がタブ領域に視線を向けることで、操作者による視線の奥行き方向の注視が容易になる。なお、各仮想表面のタブ領域は他の仮想表面と重ならない部分に設けられる。 In the second embodiment, a tab area is provided for each virtual surface, and the operator directs the line of sight to the tab area, which facilitates the operator's gaze in the depth direction of the line of sight. The tab area of each virtual surface is provided in a portion that does not overlap with other virtual surfaces.

図26に、第2実施形態の仮想表面の一例を示す。図26に示すように、仮想表面の各々は、当該仮想表面と異なる他の仮想表面と表示が重ならない位置にタブ領域34を有している。 FIG. 26 shows an example of the virtual surface of the second embodiment. As shown in FIG. 26, each of the virtual surfaces has a tab area 34 at a position where the display does not overlap with another virtual surface different from the virtual surface.

第2実施形態の表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、当該視点の位置の奥行き方向の位置x0で対応する仮想表面とは異なる他の仮想表面の透過の度合いを制御する。例えば、表示データ処理部66は、タブ領域が操作者によって注視された場合、当該タブ領域34を有する仮想表面より手前の仮想表面の透過の度合いを高くするように制御する。 The display data processing unit 66 of the second embodiment is different from the virtual surface corresponding to the position x0 in the depth direction of the viewpoint position based on the position of the operator's viewpoint acquired by the viewpoint acquisition unit 62. Controls the degree of transparency of the virtual surface. For example, the display data processing unit 66 controls so that when the tab area is watched by the operator, the degree of transmission of the virtual surface in front of the virtual surface having the tab area 34 is increased.

なお、表示データ処理部66は、仮想表面の透過の度合いを変更した場合も、タブ領域34の透過の度合いは変化させないように制御してもよい。これにより、視点を合わせた仮想表面より手前の仮想表面に視点を戻すのが容易になる。 The display data processing unit 66 may control the degree of transparency of the tab area 34 so as not to change even when the degree of transparency of the virtual surface is changed. This makes it easy to return the viewpoint to the virtual surface in front of the virtual surface to which the viewpoint is aligned.

なお、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、当該視点の位置の奥行き方向の位置x0に対応する仮想表面の透過の度合いが低くなるように制御してもよい。 The display data processing unit 66 reduces the degree of transparency of the virtual surface corresponding to the position x0 in the depth direction of the viewpoint position based on the position of the operator's viewpoint acquired by the viewpoint acquisition unit 62. It may be controlled to.

そして、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に応じて、仮想表面の透過の度合いが変更された操作用の3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。 Then, the display data processing unit 66 generates a three-dimensional display image for operation in which the degree of transparency of the virtual surface is changed according to the position of the viewpoint of the operator acquired by the viewpoint acquisition unit 62. A control signal is output to the display processing unit 60.

図26を参照して、第2実施形態の表示データ処理部66の処理の一例を説明する。 An example of the processing of the display data processing unit 66 of the second embodiment will be described with reference to FIG. 26.

まず、図26の場面30に示すように、操作者の視点の位置が視点取得部62によって取得される。場面30では、操作者の視点が、操作者から見て最も手前の仮想表面5Aに位置していると検出される。 First, as shown in scene 30 of FIG. 26, the position of the operator's viewpoint is acquired by the viewpoint acquisition unit 62. In scene 30, it is detected that the operator's viewpoint is located on the foremost virtual surface 5A as seen from the operator.

そして、場面30に示すように、操作者の視点によって「a」に対応するアイコン4が選択され、操作者の入力の確定操作により、選択されたアイコン4の文字「a」が入力される。 Then, as shown in the scene 30, the icon 4 corresponding to "a" is selected from the viewpoint of the operator, and the character "a" of the selected icon 4 is input by the confirmation operation of the input of the operator.

この場合、図26の場面30に示すように、「a」に対応するアイコン4が選択状態であることを表す操作用の3次元表示画像が操作者に対して表示される。その後、「a」に対応するアイコン4が確定状態であることを表す操作用の3次元表示画像が操作者に対して表示される。また、入力表示面5Nは、仮想表面5Aと同じ奥行き位置に表示される。 In this case, as shown in the scene 30 of FIG. 26, a three-dimensional display image for operation indicating that the icon 4 corresponding to “a” is in the selected state is displayed to the operator. After that, a three-dimensional display image for operation indicating that the icon 4 corresponding to "a" is in the confirmed state is displayed to the operator. Further, the input display surface 5N is displayed at the same depth position as the virtual surface 5A.

次に、図26の場面31において、操作者の視点の位置が手前から2層目の仮想表面5Bへ移動したことが視点取得部62によって検出されると、表示データ処理部66は、1層目の仮想表面5Aの透過の度合いを引き上げるように制御する。また、表示データ処理部66は、入力表示面5Nの表示位置を、操作者の視点の位置に合わせて1層目の仮想表面5Aから2層目の仮想表面5Bの奥行き位置に移動させるように制御する。 Next, in scene 31 of FIG. 26, when the viewpoint acquisition unit 62 detects that the position of the operator's viewpoint has moved from the front to the virtual surface 5B of the second layer, the display data processing unit 66 moves to the first layer. It is controlled to increase the degree of transmission of the virtual surface 5A of the eye. Further, the display data processing unit 66 moves the display position of the input display surface 5N from the virtual surface 5A of the first layer to the depth position of the virtual surface 5B of the second layer according to the position of the viewpoint of the operator. Control.

場面31の例では、操作者の視点の位置が2層目の仮想表面5Bに移動した場合、表示データ処理部66は、1層目の仮想表面5Aの背景の透過の度合いを100%、1層目の仮想表面5Aのアイコン4上の文字の透過の度合いを引き上げるように制御する。なお、タブ領域34の透過の度合いは変更しない。 In the example of scene 31, when the position of the viewpoint of the operator moves to the virtual surface 5B of the second layer, the display data processing unit 66 sets the degree of transparency of the background of the virtual surface 5A of the first layer to 100%, 1 The degree of transparency of the characters on the icon 4 of the virtual surface 5A of the layer is controlled to be increased. The degree of transparency of the tab area 34 is not changed.

なお、場面31に示すように、「k」のアイコン4が選択状態であることを表す操作用の3次元表示画像が操作者に対して表示される。 As shown in the scene 31, a three-dimensional display image for operation indicating that the icon 4 of "k" is in the selected state is displayed to the operator.

次に、場面31において選択されたアイコン4「k」に対する操作者の入力の確定操作が行われることなく、場面32に示すように、操作者の視点の位置が2層目の仮想表面5B上で移動し、「o」のアイコン4が選択される。そして、「o」が選択状態であることを表す操作用の3次元表示画像となる。そして、操作者の入力の確定操作によって、選択されたアイコン4の文字「o」が入力表示面5Nに反映される。 Next, as shown in scene 32, the position of the operator's viewpoint is on the virtual surface 5B of the second layer without performing the operation of confirming the input of the operator for the icon 4 "k" selected in the scene 31. Move with, and the "o" icon 4 is selected. Then, it becomes a three-dimensional display image for operation indicating that "o" is in the selected state. Then, the character "o" of the selected icon 4 is reflected on the input display surface 5N by the confirmation operation of the input of the operator.

次に、場面33に示すように、操作者の視点の位置が、2層目の仮想表面5Bから4層目の仮想表面5Dのタブ領域34に移動する。 Next, as shown in scene 33, the position of the operator's viewpoint moves from the virtual surface 5B of the second layer to the tab area 34 of the virtual surface 5D of the fourth layer.

そして、場面35に示すように、1層目の仮想表面5Aと同様に、2層目の仮想表面5B及び3層目の仮想表面5Cの透過度が高くなるように制御される。また、入力表示面5Nも4層目の仮想表面5Dの奥行き位置に移動される。 Then, as shown in the scene 35, the transparency of the virtual surface 5B of the second layer and the virtual surface 5C of the third layer is controlled to be high as in the virtual surface 5A of the first layer. Further, the input display surface 5N is also moved to the depth position of the virtual surface 5D of the fourth layer.

なお、図27に示すように、タブ領域34を仮想表面の中央部に配置してもよい。タブ領域34が中央部に配置されることにより、アイコン4の背景面外側にタブ領域34が配置された場合に比べ、タブ領域34を見るときの視線の上下左右移動が少なくなり、奥行き方向の素早い注視移動が可能となる。 As shown in FIG. 27, the tab area 34 may be arranged at the center of the virtual surface. By arranging the tab area 34 in the central portion, the vertical and horizontal movement of the line of sight when viewing the tab area 34 is reduced as compared with the case where the tab area 34 is arranged outside the background surface of the icon 4, and the movement in the depth direction is reduced. It enables quick gaze movement.

次に、第2実施形態に係る入力装置の作用について、第1実施形態と異なる点を説明する。 Next, the operation of the input device according to the second embodiment will be described as being different from the first embodiment.

上記第1実施形態では、上記図25の制御処理ルーチンにおいて、ステップS20で操作者の視点の位置に対応するアイコンの選択が行われた後に、ステップS22において仮想表面の透過の度合いの制御が行われる。しかし、第2実施形態では、操作者の視点の位置に対応するタブ領域を含む仮想表面と異なる仮想表面の透過の度合いが制御される点が、第1実施形態の処理フローと異なる。 In the first embodiment, in the control processing routine of FIG. 25, after the icon corresponding to the position of the viewpoint of the operator is selected in step S20, the degree of transparency of the virtual surface is controlled in step S22. Will be. However, the second embodiment is different from the processing flow of the first embodiment in that the degree of transmission of the virtual surface different from the virtual surface including the tab area corresponding to the position of the viewpoint of the operator is controlled.

以上説明したように、第2実施形態に係る入力装置において、仮想表面の各々は、当該仮想表面と異なる他の仮想表面と表示が重ならない位置にタブ領域を有する。そして、入力装置は、操作者の視点の位置に基づいて、視点の位置に対応するタブ領域を有する仮想表面とは異なる他の仮想表面の透過の度合いを制御する。これにより、入力操作をスムーズに行うことができる。 As described above, in the input device according to the second embodiment, each of the virtual surfaces has a tab area at a position where the display does not overlap with other virtual surfaces different from the virtual surface. Then, the input device controls the degree of transmission of another virtual surface different from the virtual surface having the tab area corresponding to the position of the viewpoint based on the position of the viewpoint of the operator. As a result, the input operation can be performed smoothly.

また、操作者はタブ領域に視線を向ければよいため、奥行き方向の注視が容易になる。そのため、入力操作をスムーズに行うことができる。 Further, since the operator only needs to direct the line of sight to the tab area, it becomes easy to gaze in the depth direction. Therefore, the input operation can be performed smoothly.

<第3実施形態>
次に、第3実施形態に係る入力装置について説明する。第3実施形態では、仮想表面の表示の鮮明度合いを制御する。なお、第3実施形態に係る入力装置の構成は、図3に示す第1又は第2実施形態に係る入力装置50の構成と同様であるため、同一符号を用いて、異なる部分について説明する。
<Third Embodiment>
Next, the input device according to the third embodiment will be described. In the third embodiment, the degree of sharpness of the display of the virtual surface is controlled. Since the configuration of the input device according to the third embodiment is the same as the configuration of the input device 50 according to the first or second embodiment shown in FIG. 3, different parts will be described using the same reference numerals.

第3実施形態の表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、仮想表面の表示の鮮明度合いを制御する。 The display data processing unit 66 of the third embodiment controls the sharpness of the display of the virtual surface based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit 62.

例えば、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、視点の位置の奥行き方向の位置x0に対応する仮想表面の表示の鮮明度合いが高くなるように制御する。また、表示データ処理部66は、視点取得部62によって取得された操作者の視点の位置に基づいて、視点の位置の奥行き方向の位置x0に対応する仮想表面とは異なる他の仮想表面の表示の鮮明度合いが低くなるように制御する。 For example, the display data processing unit 66 increases the sharpness of the display of the virtual surface corresponding to the position x0 in the depth direction of the viewpoint position based on the position of the operator's viewpoint acquired by the viewpoint acquisition unit 62. To control. Further, the display data processing unit 66 displays a virtual surface different from the virtual surface corresponding to the position x0 in the depth direction of the viewpoint position based on the position of the operator's viewpoint acquired by the viewpoint acquisition unit 62. It is controlled so that the sharpness of is low.

第3実施形態では、操作者の視点の位置の奥行き方向の位置x0に対応する仮想表面以外の仮想表面の鮮明度を低下させ、視点が対応する仮想表面を注視し易くする。鮮明度を変更する方法としては、例えば、アンシャープネスフィルタ処理を用いる。 In the third embodiment, the sharpness of the virtual surface other than the virtual surface corresponding to the position x0 in the depth direction of the position of the viewpoint of the operator is lowered, and the virtual surface corresponding to the viewpoint is easily gazed. As a method of changing the sharpness, for example, unsharpness filtering is used.

図28に、仮想表面の表示の鮮明度の変更を説明するための図を示す。図28の例は、視点の位置の奥行き方向の位置x0に対応する仮想表面と他の仮想表面の各々との距離に応じて、他の仮想表面の各々の表示の鮮明度が変更された例である。また、図28の例は、仮想表面の表示をぼかすためのフィルタとして、ガウスフィルタが使用された例である。 FIG. 28 shows a diagram for explaining a change in the display sharpness of the virtual surface. The example of FIG. 28 is an example in which the sharpness of each display of the other virtual surface is changed according to the distance between the virtual surface corresponding to the position x0 in the depth direction of the viewpoint position and each of the other virtual surfaces. Is. Further, the example of FIG. 28 is an example in which a Gaussian filter is used as a filter for blurring the display of the virtual surface.

図28の場面37に示すように、1層目の仮想表面5Aに操作者の視点の位置が対応しているため、2層目、3層目、4層目の仮想表面5B〜5Dの鮮明度が低くなるように制御される。また、図28の場面37の下段に示すように、視点の位置の奥行き方向の位置x0に対応している仮想表面から遠い仮想表面ほど、鮮明度が低くなるように制御される。 As shown in scene 37 of FIG. 28, since the position of the operator's viewpoint corresponds to the virtual surface 5A of the first layer, the virtual surfaces 5B to 5D of the second, third, and fourth layers are clear. The degree is controlled to be low. Further, as shown in the lower part of the scene 37 in FIG. 28, the sharpness is controlled to be lower as the virtual surface is farther from the virtual surface corresponding to the position x0 in the depth direction of the viewpoint position.

次に、図28の場面38において、2層目の仮想表面5Bに操作者の視点の位置が対応しているため、1層目、3層目、4層目の仮想表面5A、5C、5Dの鮮明度が低くなるように制御される。また、同様に、図28の場面38の下段に示すように、視点の位置が対応している仮想表面から遠い仮想表面ほど、鮮明度が低くなるように制御される。 Next, in scene 38 of FIG. 28, since the position of the operator's viewpoint corresponds to the virtual surface 5B of the second layer, the virtual surfaces 5A, 5C, and 5D of the first layer, the third layer, and the fourth layer It is controlled so that the sharpness of is low. Similarly, as shown in the lower part of the scene 38 in FIG. 28, the sharpness is controlled to be lower as the position of the viewpoint is farther from the corresponding virtual surface.

図28の場面39において、4層目の仮想表面5Dのタブ領域34に操作者の視点の位置が対応し、1層目、2層目、3層目の仮想表面5A〜5Cの鮮明度が低くなるように制御される。また、同様に、図28の場面39の下段に示すように、視点の位置が対応している仮想表面から遠い仮想表面ほど、鮮明度が低くなるように制御される。 In scene 39 of FIG. 28, the position of the operator's viewpoint corresponds to the tab area 34 of the virtual surface 5D of the fourth layer, and the sharpness of the virtual surfaces 5A to 5C of the first layer, the second layer, and the third layer corresponds to each other. It is controlled to be low. Similarly, as shown in the lower part of scene 39 in FIG. 28, the sharpness is controlled to be lower as the virtual surface is farther from the corresponding virtual surface.

以上説明したように、第3実施形態に係る入力装置において、操作者の視点の位置に基づいて、仮想表面の表示の鮮明度合いを制御する。これにより、入力操作をスムーズに行うことができる。 As described above, in the input device according to the third embodiment, the degree of sharpness of the display of the virtual surface is controlled based on the position of the viewpoint of the operator. As a result, the input operation can be performed smoothly.

また、視点が対応する仮想表面以外の仮想表面の鮮明度を低下させ、視点に対応する仮想表面が注視し易くなることにより、操作者は入力操作をスムーズに行うことができる。 Further, the sharpness of the virtual surface other than the virtual surface corresponding to the viewpoint is lowered, and the virtual surface corresponding to the viewpoint can be easily gazed, so that the operator can smoothly perform the input operation.

<第4実施形態>
次に、第4実施形態に係る入力装置について説明する。第4実施形態では、操作者の頭部の位置に応じて仮想表面の表示を制御する。なお、第4実施形態に係る入力装置において、第1〜第3実施形態に係る入力装置と同様の部分には、同一符号を付して詳細な説明を省略する。
<Fourth Embodiment>
Next, the input device according to the fourth embodiment will be described. In the fourth embodiment, the display of the virtual surface is controlled according to the position of the head of the operator. In the input device according to the fourth embodiment, the same parts as those of the input devices according to the first to third embodiments are designated by the same reference numerals, and detailed description thereof will be omitted.

図29に示すように、第4実施形態に係る入力装置450は、3D表示部52と、視線検出部54と、操作入力部56と、頭部位置角度検出部457と、制御部458とを備えている。頭部位置角度検出部457は、開示の技術の頭部状態取得部の一例である。 As shown in FIG. 29, the input device 450 according to the fourth embodiment includes a 3D display unit 52, a line-of-sight detection unit 54, an operation input unit 56, a head position angle detection unit 457, and a control unit 458. I have. The head position angle detection unit 457 is an example of the head state acquisition unit of the disclosed technology.

頭部位置角度検出部457は、操作者の頭部の位置及び角度を取得する。頭部位置角度検出部457は、様々な方式によって実現される。図30に、頭部位置角度検出部457を実現する方式の例を示す。 The head position angle detection unit 457 acquires the position and angle of the operator's head. The head position angle detection unit 457 is realized by various methods. FIG. 30 shows an example of a method for realizing the head position angle detection unit 457.

図30に示すように、例えば、操作者が装着するHMDの通信部42Aと所定の箇所に固定された複数の通信部42Bとが、無線によって通信を行うことにより、操作者の頭部の位置及び角度を取得することができる。 As shown in FIG. 30, for example, the position of the operator's head is obtained by wirelessly communicating between the communication unit 42A of the HMD worn by the operator and the plurality of communication units 42B fixed at predetermined locations. And the angle can be obtained.

また、図30に示すように、操作者が装着するHMDの予め定めた位置に付されたマーカ(図示省略)と、固定側カメラ43によって撮像された画像とに基づく方式により、操作者の頭部の位置及び角度を取得することができる。具体的には、固定側カメラ43がHMDのマーカ(図示省略)を撮像し、マーカの位置に応じて、操作者の頭部の位置及び角度を取得することができる。 Further, as shown in FIG. 30, the operator's head is based on a method based on a marker (not shown) attached to a predetermined position of the HMD worn by the operator and an image captured by the fixed side camera 43. The position and angle of the part can be acquired. Specifically, the fixed-side camera 43 can image an HMD marker (not shown), and can acquire the position and angle of the operator's head according to the position of the marker.

また、図30に示すように、操作者が装着するHMDのカメラ44と、固定側マーカ46とに基づく方式により、操作者の頭部の位置及び角度を取得することができる。具体的には、HMDのカメラ44が固定側マーカ46を撮像し、固定側マーカ46の位置に応じて、操作者の頭部の位置及び角度を取得することができる。 Further, as shown in FIG. 30, the position and angle of the operator's head can be acquired by a method based on the HMD camera 44 worn by the operator and the fixed side marker 46. Specifically, the camera 44 of the HMD can image the fixed side marker 46, and can acquire the position and angle of the operator's head according to the position of the fixed side marker 46.

また、図30に示すように、操作者が装着するHMDのカメラ44と周囲の固定物の特徴点検出に基づく方式により、操作者の頭部の位置及び角度を取得することができる。具体的には、HMDのカメラ44が周囲の固定物の特徴点を検出し、特徴点の位置に応じて、操作者の頭部の位置及び角度を取得することができる。 Further, as shown in FIG. 30, the position and angle of the operator's head can be acquired by a method based on the detection of feature points of the HMD camera 44 worn by the operator and surrounding fixed objects. Specifically, the camera 44 of the HMD can detect the feature points of the surrounding fixed objects and acquire the position and angle of the operator's head according to the position of the feature points.

また、図30に示すように、例えば、操作者が装着するHMDに備えられた所定のセンサ45に基づく方式により、操作者の頭部の位置及び角度を取得することができる。例えば、センサ45は、加速度センサ、ジャイロセンサ、地磁気センサなどであり、センサ45によって得られた値に基づいて、操作者の頭部の位置及び角度が取得される。 Further, as shown in FIG. 30, for example, the position and angle of the operator's head can be acquired by a method based on a predetermined sensor 45 provided in the HMD worn by the operator. For example, the sensor 45 is an acceleration sensor, a gyro sensor, a geomagnetic sensor, or the like, and the position and angle of the operator's head are acquired based on the values obtained by the sensor 45.

制御部458は、図29に示すように、表示処理部460と、視点取得部62と、判定処理部64と、視線位置変動算出部467と、表示データ処理部466と、入力処理部68とを備えている。 As shown in FIG. 29, the control unit 458 includes a display processing unit 460, a viewpoint acquisition unit 62, a determination processing unit 64, a line-of-sight position fluctuation calculation unit 467, a display data processing unit 466, and an input processing unit 68. It has.

視線位置変動算出部467は、頭部位置角度検出部457によって取得された操作者の頭部の位置及び角度に基づいて、操作者の眼の位置の変動を算出する。 The line-of-sight position variation calculation unit 467 calculates the variation in the position of the operator's eyes based on the position and angle of the operator's head acquired by the head position angle detection unit 457.

表示データ処理部466は、視線位置変動算出部467によって算出された操作者の眼の位置の変動に基づいて、複数の仮想表面の表示位置を制御する。 The display data processing unit 466 controls the display positions of the plurality of virtual surfaces based on the fluctuation of the eye position of the operator calculated by the line-of-sight position fluctuation calculation unit 467.

図31に、仮想表面の位置の制御方法を説明するための説明図を示す。例えば、図31に示すように、操作者が頭部を移動させると、眼の位置が変動し対象物の見え方が変化する。 FIG. 31 shows an explanatory diagram for explaining a method of controlling the position of the virtual surface. For example, as shown in FIG. 31, when the operator moves the head, the position of the eyes changes and the appearance of the object changes.

従って、表示データ処理部466は、視線位置変動算出部467によって算出された操作者の眼の位置の変動に基づいて、複数の仮想表面の見え方が変化するように、複数の仮想表面の位置を制御する。そして、表示データ処理部466は、複数の仮想表面の見え方が変化した操作用の3次元表示画像を生成するように、表示処理部60へ制御信号を出力する。 Therefore, the display data processing unit 466 determines the positions of the plurality of virtual surfaces so that the appearance of the plurality of virtual surfaces changes based on the fluctuation of the position of the operator's eyes calculated by the line-of-sight position fluctuation calculation unit 467. To control. Then, the display data processing unit 466 outputs a control signal to the display processing unit 60 so as to generate a three-dimensional display image for operation in which the appearance of the plurality of virtual surfaces is changed.

表示処理部60は、表示データ処理部66から出力された制御信号に応じて、操作用の3次元表示画像を生成する。 The display processing unit 60 generates a three-dimensional display image for operation in response to the control signal output from the display data processing unit 66.

入力装置450の制御部458は、例えば図32に示すコンピュータ480で実現することができる。コンピュータ480はCPU81、一時記憶領域としてのメモリ82、及び不揮発性の記憶部483を備える。また、コンピュータ480は、入出力I/F84と、記録媒体89に対するデータの読み込み及び書き込みを制御するread/write(R/W)部85と、インターネット等のネットワークに接続されるネットワークI/F86とを備える。CPU81、メモリ82、記憶部483、入出力I/F84、R/W部85、及びネットワークI/F86は、バス87を介して互いに接続される。 The control unit 458 of the input device 450 can be realized by, for example, the computer 480 shown in FIG. The computer 480 includes a CPU 81, a memory 82 as a temporary storage area, and a non-volatile storage unit 483. Further, the computer 480 includes an input / output I / F 84, a read / write (R / W) unit 85 that controls reading and writing of data to the recording medium 89, and a network I / F 86 connected to a network such as the Internet. To be equipped. The CPU 81, the memory 82, the storage unit 483, the input / output I / F 84, the R / W unit 85, and the network I / F 86 are connected to each other via the bus 87.

記憶部483は、Hard Disk Drive(HDD)、solid state drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部483には、コンピュータ480を入力装置450の制御部458として機能させるための入力プログラム490が記憶される。入力プログラム490は、表示処理プロセス492と、視点取得処理プロセス93と、判定処理プロセス94と、表示データ処理プロセス495と、入力処理プロセス96と、視線位置変動算出プロセス497とを有する。 The storage unit 483 can be realized by a Hard Disk Drive (HDD), a solid state drive (SSD), a flash memory, or the like. The storage unit 483 as a storage medium stores an input program 490 for making the computer 480 function as a control unit 458 of the input device 450. The input program 490 includes a display processing process 492, a viewpoint acquisition processing process 93, a determination processing process 94, a display data processing process 495, an input processing process 96, and a line-of-sight position variation calculation process 497.

CPU81は、入力プログラム490を記憶部83から読み出してメモリ82に展開し、入力プログラム490の各々が有するプロセスを順次実行する。 The CPU 81 reads the input program 490 from the storage unit 83, expands it into the memory 82, and sequentially executes the processes of each of the input programs 490.

CPU81は、表示処理プロセス492を実行することで、図29に示す表示処理部460として動作する。また、CPU81は、視点取得処理プロセス93を実行することで、図29に示す視点取得部62として動作する。また、CPU81は、判定処理プロセス94を実行することで、図29に示す判定処理部64として動作する。また、CPU81は、表示データ処理プロセス495を実行することで、図29に示す表示データ処理部466として動作する。また、CPU81は、入力処理プロセス96を実行することで、図29に示す入力処理部68として動作する。また、CPU81は、視線位置変動算出プロセス497を実行することで、図29に示す入力処理部68として動作する。 The CPU 81 operates as the display processing unit 460 shown in FIG. 29 by executing the display processing process 492. Further, the CPU 81 operates as the viewpoint acquisition unit 62 shown in FIG. 29 by executing the viewpoint acquisition processing process 93. Further, the CPU 81 operates as the determination processing unit 64 shown in FIG. 29 by executing the determination processing process 94. Further, the CPU 81 operates as the display data processing unit 466 shown in FIG. 29 by executing the display data processing process 495. Further, the CPU 81 operates as the input processing unit 68 shown in FIG. 29 by executing the input processing process 96. Further, the CPU 81 operates as the input processing unit 68 shown in FIG. 29 by executing the line-of-sight position fluctuation calculation process 497.

このように、入力プログラム490を実行したコンピュータ80が、入力装置450として機能することになる。 In this way, the computer 80 that has executed the input program 490 functions as the input device 450.

なお、入力プログラム490により実現される機能は、例えば半導体集積回路、より詳しくはApplication Specific Integrated Circuit(ASIC)等で実現することも可能である。 The function realized by the input program 490 can also be realized by, for example, a semiconductor integrated circuit, more specifically, an Application Specific Integrated Circuit (ASIC) or the like.

次に、図33を参照して、本実施形態に係る入力装置450の作用について説明する。 Next, the operation of the input device 450 according to the present embodiment will be described with reference to FIG. 33.

図33は、入力装置450の制御部458で実行される制御処理のフローの一例を示す。 FIG. 33 shows an example of a flow of control processing executed by the control unit 458 of the input device 450.

入力装置450の3D表示部52によって3次元表示画像が表示され、視線検出部54によって操作者の両眼の画像が逐次取得され、操作入力部56によって操作者の顔画像が逐次取得される。そして、頭部位置角度検出部457によって操作者の頭部の位置及び角度が逐次検出されているときに、図33に示す制御処理ルーチンが実行される。 The 3D display unit 52 of the input device 450 displays a three-dimensional display image, the line-of-sight detection unit 54 sequentially acquires images of both eyes of the operator, and the operation input unit 56 sequentially acquires the face image of the operator. Then, when the position and angle of the operator's head are sequentially detected by the head position / angle detection unit 457, the control processing routine shown in FIG. 33 is executed.

<制御処理ルーチン> <Control processing routine>

ステップS410において、視線位置変動算出部467は、頭部位置角度検出部457によって取得された操作者の頭部の位置及び角度を取得する。 In step S410, the line-of-sight position variation calculation unit 467 acquires the position and angle of the operator's head acquired by the head position angle detection unit 457.

ステップS412において、視線位置変動算出部467は、上記ステップS410で取得された操作者の頭部の位置及び角度に基づいて、操作者の眼の位置の変動を算出する。 In step S412, the line-of-sight position change calculation unit 467 calculates the change in the position of the operator's eyes based on the position and angle of the operator's head acquired in step S410.

ステップS414において、表示データ処理部466は、上記ステップS412で算出された操作者の眼の位置の変動に基づいて、複数の仮想表面の見え方が変化するように、複数の仮想表面の位置を制御する。そして、表示データ処理部466は、複数の仮想表面の見え方が変化した操作用の3次元表示画像を生成するように、表示処理部460へ制御信号を出力する。そして、表示処理部460は、表示データ処理部466から出力された制御信号に応じて、操作用の3次元表示画像を生成する。そして、表示処理部460は、生成した3次元表示画像を3D表示部52に対し出力する。3D表示部52は、表示処理部460によって生成された3次元表示画像を操作者に対し表示する。 In step S414, the display data processing unit 466 determines the positions of the plurality of virtual surfaces so that the appearance of the plurality of virtual surfaces changes based on the fluctuation of the position of the operator's eyes calculated in step S412. Control. Then, the display data processing unit 466 outputs a control signal to the display processing unit 460 so as to generate a three-dimensional display image for operation in which the appearance of the plurality of virtual surfaces is changed. Then, the display processing unit 460 generates a three-dimensional display image for operation in response to the control signal output from the display data processing unit 466. Then, the display processing unit 460 outputs the generated three-dimensional display image to the 3D display unit 52. The 3D display unit 52 displays the three-dimensional display image generated by the display processing unit 460 to the operator.

以上説明したように、第4実施形態に係る入力装置において、操作者の頭部の位置及び角度に基づいて、操作者の眼の位置の変動を算出する。これにより、複数の仮想表面の見え方が変化し、操作者は入力操作をスムーズに行うことができる。 As described above, in the input device according to the fourth embodiment, the variation in the position of the operator's eyes is calculated based on the position and angle of the operator's head. As a result, the appearance of the plurality of virtual surfaces changes, and the operator can smoothly perform the input operation.

次に、実施の形態の変形例を説明する。 Next, a modified example of the embodiment will be described.

第2実施形態では、操作者の視点の位置に基づいて、当該視点の位置の奥行き方向の位置x0で対応する仮想表面に応じて、仮想表面の透過の度合いを制御する場合を例に説明したがこれに限定されるものではない。例えば、操作者の視点の位置(y0,z0)に対応するタブ領域を有する仮想表面に応じて、仮想表面の透過の度合いを制御してもよい。また、当該視点の位置の奥行き方向の位置x0で対応する仮想表面に応じて、仮想表面の透過の度合いを制御すると共に、仮想表面上の視点の位置(y0,z0)に対応するタブ領域を有する仮想表面に応じて、仮想表面の透過の度合いを制御してもよい。この場合には、視点の位置の奥行き方向の位置x0で対応する仮想表面、及び視点の位置(y0,z0)に対応するタブ領域を有する仮想表面の何れか一方を優先して、仮想表面の透過の度合いを制御するようにすればよい。 In the second embodiment, a case where the degree of transparency of the virtual surface is controlled according to the corresponding virtual surface at the position x0 in the depth direction of the viewpoint based on the position of the viewpoint of the operator has been described as an example. Is not limited to this. For example, the degree of transparency of the virtual surface may be controlled according to the virtual surface having the tab area corresponding to the position (y0, z0) of the viewpoint of the operator. In addition, the degree of transparency of the virtual surface is controlled according to the corresponding virtual surface at the position x0 in the depth direction of the viewpoint position, and the tab area corresponding to the viewpoint position (y0, z0) on the virtual surface is created. The degree of transmission of the virtual surface may be controlled according to the virtual surface having the virtual surface. In this case, priority is given to either the virtual surface corresponding to the position x0 in the depth direction of the viewpoint position or the virtual surface having the tab area corresponding to the viewpoint position (y0, z0) of the virtual surface. The degree of transparency may be controlled.

また、上記実施形態では、操作者からの文字の入力を受け付ける入力装置を例に説明したが、これに限定されるものではない。例えば、複雑な操作入力に関する入力装置(例えば、航空機の操作系、管制塔に備えられた機器の操作等)であってもよい。 Further, in the above embodiment, an input device for receiving character input from an operator has been described as an example, but the present invention is not limited to this. For example, it may be an input device related to a complicated operation input (for example, an operation system of an aircraft, an operation of a device provided in a control tower, etc.).

また、上記実施形態では、操作者からの操作入力を受け付ける入力装置を例に説明したが、これに限定されるものではない。操作入力は必須ではないため、例えば、入力装置は、操作者の視点の位置に対応する仮想表面に含まれるアイコンを選択する処理のみを行ってもよい。 Further, in the above embodiment, an input device for receiving an operation input from an operator has been described as an example, but the present invention is not limited to this. Since the operation input is not essential, for example, the input device may only perform the process of selecting the icon included in the virtual surface corresponding to the position of the viewpoint of the operator.

また、上記実施形態では、仮想表面の数が3層〜5層である場合を例に説明したが、これに限定されるものではなく、仮想表面は何層であってもよい。 Further, in the above embodiment, the case where the number of virtual surfaces is 3 to 5 layers has been described as an example, but the present invention is not limited to this, and the virtual surface may be any number of layers.

なお、上記実施形態では、操作者の視点の位置に対応するアイコンが選択され、アイコンが含まれる仮想表面の手前の仮想表面の透過の度合い(又は鮮明度合い)が制御される場合を例に説明したが、処理の流れはこれに限定されるものではない。例えば、操作者の視点の位置に対応する仮想表面が特定され、当該仮想表面の透過の度合いが制御され、その後の視点の移動に応じて、特定された仮想表面上のアイコンの選択されるように制御してもよい。 In the above embodiment, an example will be described in which an icon corresponding to the position of the viewpoint of the operator is selected and the degree of transmission (or degree of sharpness) of the virtual surface in front of the virtual surface including the icon is controlled. However, the processing flow is not limited to this. For example, a virtual surface corresponding to the position of the operator's viewpoint is specified, the degree of transparency of the virtual surface is controlled, and an icon on the specified virtual surface is selected according to the subsequent movement of the viewpoint. It may be controlled to.

以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
入力操作用のアイコンを含む複数の仮想表面を、操作者から見て奥行き方向に並べて配置し、かつ複数の前記仮想表面を透過させて3次元表示部に表示させる制御部と、
前記操作者の視点の位置を取得する視点取得部と、
前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する仮想表面に含まれる前記アイコンを選択する選択部と、
を備えた入力装置。
The following additional notes will be further disclosed with respect to the above embodiments.
(Appendix 1)
A control unit that arranges a plurality of virtual surfaces including icons for input operations side by side in the depth direction when viewed from the operator, and allows the plurality of virtual surfaces to pass through and be displayed on a three-dimensional display unit.
A viewpoint acquisition unit that acquires the position of the operator's viewpoint, and
A selection unit that selects the icon included in the virtual surface corresponding to the position of the viewpoint based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit.
Input device equipped with.

(付記2)
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記仮想表面の各々の透過の度合いを制御する
付記1に記載の入力装置。
(Appendix 2)
The input device according to Appendix 1, wherein the control unit controls the degree of transmission of each of the virtual surfaces based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit.

(付記3)
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の透過の度合いが低くなるように制御する
付記2に記載の入力装置。
(Appendix 3)
The control unit controls the degree of transmission of the virtual surface corresponding to the position of the viewpoint based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit. Input device.

(付記4)
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面より手前の仮想表面の透過の度合いが高くなるように制御する
付記2又は付記3に記載の入力装置。
(Appendix 4)
Based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit, the control unit controls so that the degree of transmission of the virtual surface in front of the virtual surface corresponding to the position of the viewpoint is higher. The input device according to Appendix 2 or Appendix 3.

(付記5)
前記仮想表面の各々は、前記仮想表面と異なる他の仮想表面と表示が重ならない位置にタブ領域を有する
付記1〜付記4の何れか1項に記載の入力装置。
(Appendix 5)
The input device according to any one of Supplementary note 1 to Appendix 4, wherein each of the virtual surfaces has a tab area at a position where the display does not overlap with another virtual surface different from the virtual surface.

(付記6)
前記操作者の意思表示に関する情報を取得する意思取得部と、
前記意思取得部によって取得された前記操作者の意思表示に関する情報に基づいて、前記操作者の操作の種別を判定する判定部とを更に含み、
前記選択部は、前記選択された前記アイコンと、前記判定部によって判定された前記操作の種別とに基づいて、前記アイコンの選択を確定するか否かを判定する
付記1〜付記5の何れか1項に記載の入力装置。
(Appendix 6)
The intention acquisition unit that acquires information on the manifestation of intention of the operator,
Further including a determination unit for determining the type of operation of the operator based on the information regarding the manifestation of intention of the operator acquired by the intention acquisition unit.
The selection unit determines whether or not to confirm the selection of the icon based on the selected icon and the type of operation determined by the determination unit. Any one of Supplementary notes 1 to 5. The input device according to item 1.

(付記7)
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記仮想表面の各々の表示の鮮明度合いを制御する
付記1〜付記6の何れか1項に記載の入力装置。
(Appendix 7)
The control unit controls the degree of sharpness of each display on the virtual surface based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit. Input device.

(付記8)
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の表示の鮮明度合いが他の仮想表面の鮮明度合いに比べ高くなるように制御する
付記7に記載の入力装置。
(Appendix 8)
Based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit, the control unit has a higher degree of sharpness of the display of the virtual surface corresponding to the position of the viewpoint than the degree of sharpness of other virtual surfaces. The input device according to Appendix 7, which is controlled so as to be.

(付記9)
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面とは異なる他の仮想表面の表示の鮮明度合いが低くなるように制御する
付記7又は付記8に記載の入力装置。
(Appendix 9)
Based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit, the control unit reduces the sharpness of the display of another virtual surface different from the virtual surface corresponding to the position of the viewpoint. The input device according to Appendix 7 or Appendix 8.

(付記10)
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面に対応する位置に、前記操作者から入力された情報を表示するように前記3次元表示部を制御する
付記1〜付記9の何れか1項に記載の入力装置。
(Appendix 10)
Based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit, the control unit displays information input from the operator at a position corresponding to the virtual surface corresponding to the position of the viewpoint. The input device according to any one of Supplementary note 1 to Supplementary note 9, which controls the three-dimensional display unit so as to perform the operation.

(付記11)
前記操作者の頭部の位置及び角度を取得する頭部状態取得部を更に含み、
前記制御部は、前記頭部状態取得部によって検出された前記位置及び前記角度に基づいて、複数の前記仮想表面の表示位置を制御する
付記1〜付記10の何れか1項に記載の入力装置。
(Appendix 11)
Further including a head state acquisition unit for acquiring the position and angle of the operator's head,
The input device according to any one of Supplementary note 1 to Supplementary note 10, wherein the control unit controls a display position of a plurality of the virtual surfaces based on the position and the angle detected by the head state acquisition unit. ..

(付記12)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が前記操作者から見て奥行き方向に位置するほど、前記アイコンの大きさが大きい
付記1〜付記11の何れか1項に記載の入力装置。
(Appendix 12)
Each of the icons included in the plurality of virtual surfaces has a larger size of the icon as the position of the virtual surface is located in the depth direction when viewed from the operator. Any one of Addendums 1 to 11. The input device described in.

(付記13)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が前記操作者から見て奥行き方向に位置するほど、隣に配置された前記アイコンとの間隔が広い
付記1〜付記12の何れか1項に記載の入力装置。
(Appendix 13)
Each of the icons included in the plurality of virtual surfaces has a wider distance from the icons arranged next to each other so that the position of the virtual surface is located in the depth direction when viewed from the operator. The input device according to any one of the above items.

(付記14)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記アイコンの少なくとも一部分が、前記アイコンを含む前記仮想表面とは異なる他の仮想表面に含まれる前記アイコンと重ならないように配置される
付記1〜付記13の何れか1項に記載の入力装置。
(Appendix 14)
Each of the icons included in the plurality of virtual surfaces is arranged so that at least a part of the icons does not overlap with the icons contained in another virtual surface different from the virtual surface including the icon. ~ The input device according to any one of Appendix 13.

(付記15)
前記アイコンの種類に応じて前記アイコンが複数の前記仮想表面に分類されて配置される
付記1〜付記14の何れか1項に記載の入力装置。
(Appendix 15)
The input device according to any one of Supplementary note 1 to Supplementary note 14, wherein the icons are classified and arranged on a plurality of the virtual surfaces according to the type of the icon.

(付記16)
前記アイコンの各々の形状及び色の少なくとも一方は、前記アイコンの選択によって入力される情報の種類に応じて定められている
付記1〜付記15の何れか1項に記載の入力装置。
(Appendix 16)
The input device according to any one of Supplementary note 1 to Supplementary note 15, wherein at least one of the shapes and colors of the icons is defined according to the type of information input by selecting the icon.

(付記17)
前記アイコンの各々の形状及び色の少なくとも一方は、前記仮想表面内の前記アイコンの位置に応じて定められている
付記1〜付記16に記載の入力装置。
(Appendix 17)
The input device according to Appendix 1 to Appendix 16, wherein at least one of the shapes and colors of each of the icons is determined according to the position of the icon in the virtual surface.

(付記18)
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面より奥の仮想表面の透過の度合いが高くなるように制御する
付記1〜付記17の何れか1項に記載の入力装置。
(Appendix 18)
Based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit, the control unit controls so that the degree of transmission of the virtual surface deeper than the virtual surface corresponding to the position of the viewpoint is higher. The input device according to any one of Supplementary note 1 to Supplementary note 17.

(付記19)
入力操作用のアイコンを含む複数の仮想表面を、操作者から見て奥行き方向に並べて配置し、かつ複数の前記仮想表面を透過させて3次元表示部に表示させ、
前記操作者の視点の位置を取得し、
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記アイコンを選択する、
処理をコンピュータに実行させる入力プログラム。
(Appendix 19)
A plurality of virtual surfaces including icons for input operations are arranged side by side in the depth direction when viewed from the operator, and the plurality of virtual surfaces are transparently displayed on the three-dimensional display unit.
Acquire the position of the viewpoint of the operator and
Based on the acquired position of the viewpoint of the operator, the icon corresponding to the position of the viewpoint is selected.
An input program that causes a computer to perform processing.

(付記20)
取得された前記操作者の視点の位置に基づいて、前記仮想表面の各々の透過の度合いを制御する処理をコンピュータに実行させる
付記19に記載の入力プログラム。
(Appendix 20)
The input program according to Appendix 19, which causes a computer to execute a process of controlling the degree of transmission of each of the virtual surfaces based on the acquired position of the viewpoint of the operator.

(付記21)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の透過の度合いが低くなるように制御する処理をコンピュータに実行させる
付記20に記載の入力プログラム。
(Appendix 21)
The input program according to Appendix 20, wherein a computer is made to execute a process of controlling the degree of transparency of the virtual surface corresponding to the position of the viewpoint based on the acquired position of the viewpoint of the operator.

(付記22)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面より手前の仮想表面の透過の度合いが高くなるように制御する処理をコンピュータに実行させる
付記20又は付記21に記載の入力プログラム。
(Appendix 22)
Addendum 20 or annex to cause the computer to execute a process of controlling the degree of transparency of the virtual surface in front of the virtual surface corresponding to the position of the viewpoint based on the acquired position of the viewpoint of the operator. 21. The input program.

(付記23)
前記仮想表面の各々は、前記仮想表面と異なる他の仮想表面と表示が重ならない位置にタブ領域を有する
付記19〜付記22の何れか1項に記載の入力プログラム。
(Appendix 23)
The input program according to any one of Supplementary note 19 to Supplementary note 22, wherein each of the virtual surfaces has a tab area at a position where the display does not overlap with another virtual surface different from the virtual surface.

(付記24)
前記操作者の意思表示に関する情報を取得し、
前記取得部によって取得された前記操作者の意思表示に関する情報に基づいて、前記操作者の操作の種別を判定し、
選択された前記アイコンと、判定された前記操作の種別とに基づいて、前記アイコンの選択を確定するか否かを判定する処理をコンピュータに実行させる
付記19〜付記23の何れか1項に記載の入力プログラム。
(Appendix 24)
Obtain information on the manifestation of intention of the operator
Based on the information regarding the manifestation of intention of the operator acquired by the acquisition unit, the type of operation of the operator is determined.
The item described in any one of Supplementary note 19 to Supplementary note 23, wherein a computer is made to execute a process of determining whether or not to confirm the selection of the icon based on the selected icon and the determined type of the operation. Input program.

(付記25)
取得された前記操作者の視点の位置に基づいて、前記仮想表面の表示の鮮明度合いを制御する処理をコンピュータに実行させる
付記19〜付記24の何れか1項に記載の入力プログラム。
(Appendix 25)
The input program according to any one of Appendix 19 to Appendix 24, which causes a computer to execute a process of controlling the sharpness of the display of the virtual surface based on the acquired position of the viewpoint of the operator.

(付記26)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の各々の表示の鮮明度合いが他の仮想表面の鮮明度合いに比べ高くなるように制御する処理をコンピュータに実行させる
付記19〜付記25の何れか1項に記載の入力プログラム。
(Appendix 26)
Based on the acquired position of the viewpoint of the operator, a computer controls the degree of sharpness of each display of the virtual surface corresponding to the position of the viewpoint so as to be higher than the degree of sharpness of other virtual surfaces. The input program according to any one of Appendix 19 to Appendix 25.

(付記27)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面とは異なる他の仮想表面の表示の鮮明度合いが低くなるように制御する処理をコンピュータに実行させる
付記26に記載の入力プログラム。
(Appendix 27)
Addendum: Based on the acquired position of the viewpoint of the operator, the computer is made to execute a process of controlling the display of another virtual surface different from the virtual surface corresponding to the position of the viewpoint to be less clear. The input program according to 26.

(付記28)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面に対応する位置に、前記操作者から入力された情報を表示するように前記3次元表示部を制御する処理をコンピュータに実行させる
付記26又は付記27に記載の入力プログラム。
(Appendix 28)
Based on the acquired position of the viewpoint of the operator, the three-dimensional display unit is controlled so as to display the information input from the operator at the position corresponding to the virtual surface corresponding to the position of the viewpoint. The input program according to Appendix 26 or Appendix 27, which causes a computer to execute the processing to be performed.

(付記29)
前記操作者の頭部の位置及び角度を取得する頭部状態取得部によって検出された前記位置及び前記角度に基づいて、複数の前記仮想表面の表示位置を制御する処理をコンピュータに実行させる
付記19〜付記28の何れか1項に記載の入力プログラム。
(Appendix 29)
Appendix 19 Causes a computer to execute a process of controlling a plurality of virtual surface display positions based on the position and the angle detected by the head state acquisition unit that acquires the position and angle of the operator's head. -The input program according to any one of Appendix 28.

(付記30)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が前記操作者から見て奥行き方向に位置するほど、前記アイコンの大きさが大きい
付記19〜付記29の何れか1項に記載の入力プログラム。
(Appendix 30)
Each of the icons included in the plurality of virtual surfaces has a larger size of the icon as the position of the virtual surface is located in the depth direction when viewed from the operator. Any one of Appendix 19 to Appendix 29. The input program described in.

(付記31)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が前記操作者から見て奥行き方向に位置するほど、隣に配置された前記アイコンとの間隔が広い
付記19〜付記30の何れか1項に記載の入力プログラム。
(Appendix 31)
Each of the icons included in the plurality of virtual surfaces has a wider distance from the icons arranged next to each other so that the position of the virtual surface is located in the depth direction when viewed from the operator. The input program according to any one of the above.

(付記32)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記アイコンの少なくとも一部分が、前記アイコンを含む前記仮想表面とは異なる他の仮想表面に含まれる前記アイコンと重ならないように配置される
付記19〜付記31の何れか1項に記載の入力プログラム。
(Appendix 32)
Each of the icons included in the plurality of virtual surfaces is arranged so that at least a part of the icons does not overlap with the icons contained in another virtual surface different from the virtual surface including the icon. -The input program according to any one of Appendix 31.

(付記33)
前記アイコンの種類に応じて前記アイコンが複数の前記仮想表面に分類されて配置される
付記19〜付記32の何れか1項に記載の入力プログラム。
(Appendix 33)
The input program according to any one of Supplementary note 19 to Supplementary note 32, wherein the icons are classified and arranged on a plurality of the virtual surfaces according to the type of the icon.

(付記34)
前記アイコンの各々の形状及び色の少なくとも一方は、前記アイコンの選択によって入力される情報の種類に応じて定められている
付記19〜付記33の何れか1項に記載の入力プログラム。
(Appendix 34)
The input program according to any one of Supplementary note 19 to Supplementary note 33, wherein at least one of the shape and color of each of the icons is defined according to the type of information input by selecting the icon.

(付記35)
前記アイコンの各々の形状及び色の少なくとも一方は、前記仮想表面内の前記アイコンの位置に応じて定められている
付記19〜付記34の何れか1項に記載の入力プログラム。
(Appendix 35)
The input program according to any one of Supplementary note 19 to Supplementary note 34, wherein at least one of the shape and color of each of the icons is defined according to the position of the icon in the virtual surface.

(付記36)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面より奥の仮想表面の透過の度合いが高くなるように制御する処理をコンピュータに実行させる
付記19〜付記35の何れか1項に記載の入力プログラム。
(Appendix 36)
Addendum 19 to Addendum 19 to make the computer execute a process of controlling the degree of transparency of the virtual surface deeper than the virtual surface corresponding to the position of the viewpoint based on the acquired position of the viewpoint of the operator. The input program according to any one of 35.

(付記37)
入力操作用のアイコンを含む複数の仮想表面を、操作者から見て奥行き方向に並べて配置し、かつ複数の前記仮想表面を透過させて3次元表示部に表示させ、
前記操作者の視点の位置を取得し、
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記アイコンを選択する、
処理をコンピュータに実行させる入力方法。
(Appendix 37)
A plurality of virtual surfaces including icons for input operations are arranged side by side in the depth direction when viewed from the operator, and the plurality of virtual surfaces are transparently displayed on the three-dimensional display unit.
Acquire the position of the viewpoint of the operator and
Based on the acquired position of the viewpoint of the operator, the icon corresponding to the position of the viewpoint is selected.
An input method that causes a computer to perform processing.

(付記38)
取得された前記操作者の視点の位置に基づいて、前記仮想表面の各々の透過の度合いを制御する処理をコンピュータに実行させる
付記37に記載の入力方法。
(Appendix 38)
The input method according to Appendix 37, wherein a computer is made to execute a process of controlling the degree of transmission of each of the virtual surfaces based on the acquired position of the viewpoint of the operator.

(付記39)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の透過の度合いが低くなるように制御する処理をコンピュータに実行させる
付記38に記載の入力方法。
(Appendix 39)
The input method according to Appendix 38, wherein the computer executes a process of controlling the degree of transparency of the virtual surface corresponding to the position of the viewpoint based on the acquired position of the viewpoint of the operator.

(付記40)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面より手前の仮想表面の透過の度合いが高くなるように制御する処理をコンピュータに実行させる
付記38又は付記39に記載の入力方法。
(Appendix 40)
Addendum 38 or annex to cause the computer to execute a process of controlling the degree of transparency of the virtual surface in front of the virtual surface corresponding to the position of the viewpoint based on the acquired position of the viewpoint of the operator. 39. The input method.

(付記41)
前記仮想表面の各々は、前記仮想表面と異なる他の仮想表面と表示が重ならない位置にタブ領域を有する
付記37〜付記40の何れか1項に記載の入力方法。
(Appendix 41)
The input method according to any one of Appendix 37 to Appendix 40, wherein each of the virtual surfaces has a tab area at a position where the display does not overlap with another virtual surface different from the virtual surface.

(付記42)
前記操作者の意思表示に関する情報を取得し、
前記取得部によって取得された前記操作者の意思表示に関する情報に基づいて、前記操作者の操作の種別を判定し、
選択された前記アイコンと、判定された前記操作の種別とに基づいて、前記アイコンの選択を確定するか否かを判定する処理をコンピュータに実行させる
付記37〜付記41の何れか1項に記載の入力方法。
(Appendix 42)
Obtain information on the manifestation of intention of the operator
Based on the information regarding the manifestation of intention of the operator acquired by the acquisition unit, the type of operation of the operator is determined.
The item described in any one of Supplementary note 37 to Appendix 41, which causes a computer to execute a process of determining whether or not to confirm the selection of the icon based on the selected icon and the determined type of the operation. Input method.

(付記43)
取得された前記操作者の視点の位置に基づいて、前記仮想表面の各々の表示の鮮明度合いを制御する処理をコンピュータに実行させる
付記37〜付記42の何れか1項に記載の入力方法。
(Appendix 43)
The input method according to any one of Supplementary note 37 to Supplementary note 42, wherein a computer is made to execute a process of controlling the sharpness of each display of the virtual surface based on the acquired position of the viewpoint of the operator.

(付記44)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の表示の鮮明度合いが他の仮想表面の鮮明度合いに比べ高くなるように制御する処理をコンピュータに実行させる
付記43に記載の入力方法。
(Appendix 44)
Based on the acquired position of the viewpoint of the operator, the computer executes a process of controlling the display sharpness of the virtual surface corresponding to the position of the viewpoint to be higher than the sharpness of other virtual surfaces. The input method according to Appendix 43.

(付記45)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面とは異なる他の仮想表面の表示の鮮明度合いが低くなるように制御する処理をコンピュータに実行させる
付記43又は付記44に記載の入力方法。
(Appendix 45)
Addendum: Based on the acquired position of the viewpoint of the operator, the computer is made to execute a process of controlling the display of another virtual surface different from the virtual surface corresponding to the position of the viewpoint to be less clear. 43 or the input method according to Appendix 44.

(付記46)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面に対応する位置に、前記操作者から入力された情報を表示するように前記3次元表示部を制御する処理をコンピュータに実行させる
付記37〜付記45の何れか1項に記載の入力方法。
(Appendix 46)
Based on the acquired position of the viewpoint of the operator, the three-dimensional display unit is controlled so as to display the information input from the operator at the position corresponding to the virtual surface corresponding to the position of the viewpoint. The input method according to any one of Supplementary note 37 to Supplementary note 45, which causes a computer to execute the process to be performed.

(付記47)
前記操作者の頭部の位置及び角度を取得する頭部状態取得部によって検出された前記位置及び前記角度に基づいて、複数の前記仮想表面の表示位置を制御する処理をコンピュータに実行させる
付記37〜付記46の何れか1項に記載の入力方法。
(Appendix 47)
Appendix 37 Causes a computer to execute a process of controlling a plurality of virtual surface display positions based on the position and the angle detected by the head state acquisition unit that acquires the position and angle of the operator's head. -The input method according to any one of Appendix 46.

(付記48)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が前記操作者から見て奥行き方向に位置するほど、前記アイコンの大きさが大きい
付記37〜付記47の何れか1項に記載の入力方法。
(Appendix 48)
Each of the icons included in the plurality of virtual surfaces has a larger size of the icon as the position of the virtual surface is located in the depth direction when viewed from the operator. Any one of Appendix 37 to Appendix 47. Input method described in.

(付記49)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が前記操作者から見て奥行き方向に位置するほど、隣に配置された前記アイコンとの間隔が広い
付記37〜付記48の何れか1項に記載の入力方法。
(Appendix 49)
Each of the icons included in the plurality of virtual surfaces has a wider distance from the icons arranged next to each other so that the position of the virtual surface is located in the depth direction when viewed from the operator. The input method according to any one of the above items.

(付記50)
複数の前記仮想表面に含まれる前記アイコンの各々は、前記アイコンの少なくとも一部分が、前記アイコンを含む前記仮想表面とは異なる他の仮想表面に含まれる前記アイコンと重ならないように配置される
付記37〜付記49の何れか1項に記載の入力方法。
(Appendix 50)
Each of the icons included in the plurality of virtual surfaces is arranged so that at least a part of the icons does not overlap with the icons contained in another virtual surface different from the virtual surface including the icon. -The input method according to any one of Appendix 49.

(付記51)
前記アイコンの種類に応じて前記アイコンが複数の前記仮想表面に分類されて配置される
付記37〜付記50の何れか1項に記載の入力方法。
(Appendix 51)
The input method according to any one of Supplementary note 37 to Supplementary note 50, wherein the icons are classified and arranged on a plurality of the virtual surfaces according to the type of the icon.

(付記52)
前記アイコンの各々の形状及び色の少なくとも一方は、前記アイコンの選択によって入力される情報の種類に応じて定められている
付記37〜付記51の何れか1項に記載の入力方法。
(Appendix 52)
The input method according to any one of Supplementary note 37 to Supplementary note 51, wherein at least one of the shapes and colors of each of the icons is defined according to the type of information input by selecting the icon.

(付記53)
前記アイコンの各々の形状及び色の少なくとも一方は、前記仮想表面内の前記アイコンの位置に応じて定められている
付記37〜付記52の何れか1項に記載の入力方法。
(Appendix 53)
The input method according to any one of Supplementary note 37 to Supplementary note 52, wherein at least one of the shape and color of each of the icons is determined according to the position of the icon in the virtual surface.

(付記54)
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面より奥の仮想表面の透過の度合いが高くなるように制御する処理をコンピュータに実行させる
付記37〜付記53の何れか1項に記載の入力方法。
(Appendix 54)
Addendum 37 to Addendum 37 to make the computer execute a process of controlling the degree of transparency of the virtual surface deeper than the virtual surface corresponding to the position of the viewpoint based on the acquired position of the viewpoint of the operator. The input method according to any one of 53.

(付記55)
入力操作用のアイコンを含む複数の仮想表面を、操作者から見て奥行き方向に並べて配置し、かつ複数の前記仮想表面を透過させて3次元表示部に表示させ、
前記操作者の視点の位置を取得し、
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記アイコンを選択する、
処理をコンピュータに実行させる入力プログラムを記憶した記憶媒体。
(Appendix 55)
A plurality of virtual surfaces including icons for input operations are arranged side by side in the depth direction when viewed from the operator, and the plurality of virtual surfaces are transparently displayed on the three-dimensional display unit.
Acquire the position of the viewpoint of the operator and
Based on the acquired position of the viewpoint of the operator, the icon corresponding to the position of the viewpoint is selected.
A storage medium that stores an input program that causes a computer to execute processing.

4 アイコン
5 3次元表示画像
5A,5B,5C,5D,5E 仮想表面
5N 入力表示面
6 操作者
34 タブ領域
50,450 入力装置
52 3D表示部
54 視線検出部
56 操作入力部
58,458 制御部
60,460 表示処理部
62 視点取得部
64 判定処理部
66,466 表示データ処理部
68 入力処理部
80,480 コンピュータ
81 CPU
82 メモリ
83,483 記憶部
89 記録媒体
90,490 入力プログラム
92,492 表示処理プロセス
93 視点取得処理プロセス
94 判定処理プロセス
95,495 表示データ処理プロセス
96 入力処理プロセス
497 視線位置変動算出プロセス
457 頭部位置角度検出部
467 視線位置変動算出部
4 Icon 5 3D display image 5A, 5B, 5C, 5D, 5E Virtual surface 5N Input display surface 6 Operator 34 Tab area 50,450 Input device 52 3D display 54 Line-of-sight detection unit 56 Operation input unit 58,458 Control unit 60,460 Display processing unit 62 Viewpoint acquisition unit 64 Judgment processing unit 66,466 Display data processing unit 68 Input processing unit 80,480 Computer 81 CPU
82 Memory 83,483 Storage unit 89 Recording medium 90,490 Input program 92,492 Display processing process 93 Viewpoint acquisition processing process 94 Judgment processing process 95,495 Display data processing process 96 Input processing process 497 Line-of-sight position fluctuation calculation process 457 Head Position / angle detection unit 467 Line-of-sight position fluctuation calculation unit

Claims (10)

入力操作用のアイコンを含む複数の仮想表面であって、かつ複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が操作者から見て奥行き方向に位置するほど、前記アイコンの大きさが大きい前記複数の仮想表面を、前記操作者から見て奥行き方向に並べて配置し、かつ複数の前記仮想表面を透過させて3次元表示部に表示させる制御部と、
前記操作者の視点の位置を取得する視点取得部と、
前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する仮想表面に含まれる前記アイコンを選択する選択部と、
を備え
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の奥行き位置であって、かつ前記選択部により選択された前記アイコンとは異なる位置に、前記操作者から入力された情報を表示するように前記3次元表示部を制御する、
入力装置。
There are a plurality of virtual surfaces including icons for input operations, and each of the icons included in the plurality of virtual surfaces is such that the position of the virtual surface is located in the depth direction when viewed from the operator. A control unit that arranges the plurality of virtual surfaces having a large size side by side in the depth direction when viewed from the operator, and allows the plurality of virtual surfaces to pass through and display on a three-dimensional display unit.
A viewpoint acquisition unit that acquires the position of the operator's viewpoint, and
A selection unit that selects the icon included in the virtual surface corresponding to the position of the viewpoint based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit.
Equipped with a,
The control unit is a depth position of the virtual surface corresponding to the position of the viewpoint based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit, and is selected by the selection unit. The three-dimensional display unit is controlled so as to display the information input from the operator at a position different from the icon.
Input device.
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の透過の度合いが低くなるように制御する
請求項1に記載の入力装置。
The first aspect of claim 1, wherein the control unit controls the degree of transmission of the virtual surface corresponding to the position of the viewpoint based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit. Input device.
前記仮想表面の各々は、前記仮想表面と異なる他の仮想表面と表示が重ならない位置にタブ領域を有する
請求項1又は請求項2に記載の入力装置。
The input device according to claim 1 or 2, wherein each of the virtual surfaces has a tab area at a position where the display does not overlap with another virtual surface different from the virtual surface.
前記操作者の意思表示に関する情報を取得する意思取得部と、
前記意思取得部によって取得された前記操作者の意思表示に関する情報に基づいて、前記操作者の操作の種別を判定する判定部とを更に含み、
前記選択部は、前記選択された前記アイコンと、前記判定部によって判定された前記操作の種別とに基づいて、前記アイコンの選択を確定するか否かを判定する
請求項1〜請求項3の何れか1項に記載の入力装置。
The intention acquisition unit that acquires information on the manifestation of intention of the operator,
Further including a determination unit for determining the type of operation of the operator based on the information regarding the manifestation of intention of the operator acquired by the intention acquisition unit.
The selection unit determines whether or not to confirm the selection of the icon based on the selected icon and the type of the operation determined by the determination unit. The input device according to any one item.
前記制御部は、前記視点取得部によって取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の表示の鮮明度合いが他の仮想表面の鮮明度合いに比べ高くなるように制御する
請求項1〜請求項4の何れか1項に記載の入力装置。
Based on the position of the viewpoint of the operator acquired by the viewpoint acquisition unit, the control unit has a higher degree of sharpness of the display of the virtual surface corresponding to the position of the viewpoint than the degree of sharpness of other virtual surfaces. The input device according to any one of claims 1 to 4, wherein the input device is controlled so as to be.
前記操作者の頭部の位置及び角度を取得する頭部状態取得部を更に含み、
前記制御部は、前記頭部状態取得部によって検出された前記位置及び前記角度に基づいて、複数の前記仮想表面の表示位置を制御する
請求項1〜請求項の何れか1項に記載の入力装置。
Further including a head state acquisition unit for acquiring the position and angle of the operator's head,
The one according to any one of claims 1 to 5 , wherein the control unit controls a display position of a plurality of the virtual surfaces based on the position and the angle detected by the head state acquisition unit. Input device.
複数の前記仮想表面に含まれる前記アイコンの各々は、前記アイコンの少なくとも一部分が、前記アイコンを含む前記仮想表面とは異なる他の仮想表面に含まれる前記アイコンと重ならないように配置される
請求項1〜請求項の何れか1項に記載の入力装置。
Claim that each of the icons included in the plurality of virtual surfaces is arranged so that at least a part of the icons does not overlap with the icons contained in another virtual surface different from the virtual surface including the icon. The input device according to any one of claims 1 to 6 .
複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が前記操作者から見て奥行き方向に位置するほど、隣に配置された前記アイコンとの間隔が広い、
請求項1〜請求項の何れか1項に記載の入力装置。
Each of the icons included in the plurality of virtual surfaces has a wider distance from the icons arranged next to each other as the position of the virtual surface is located in the depth direction when viewed from the operator.
The input device according to any one of claims 1 to 7 .
入力操作用のアイコンを含む複数の仮想表面であって、かつ複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が操作者から見て奥行き方向に位置するほど、前記アイコンの大きさが大きい前記複数の仮想表面を、前記操作者から見て奥行き方向に並べて配置し、かつ複数の前記仮想表面を透過させて3次元表示部に表示させ、
前記操作者の視点の位置を取得し、
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記アイコンを選択し、
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の奥行き位置であって、かつ選択された前記アイコンとは異なる位置に、前記操作者から入力された情報を表示するように前記3次元表示部を制御する、
処理をコンピュータに実行させる入力プログラム。
There are a plurality of virtual surfaces including icons for input operations, and each of the icons included in the plurality of virtual surfaces is such that the position of the virtual surface is located in the depth direction when viewed from the operator. The plurality of virtual surfaces having a large size are arranged side by side in the depth direction when viewed from the operator, and the plurality of virtual surfaces are transparently displayed on the three-dimensional display unit.
Acquire the position of the viewpoint of the operator and
Based on the acquired position of the viewpoint of the operator, the icon corresponding to the position of the viewpoint is selected .
Based on the acquired position of the viewpoint of the operator, the operator inputs the depth position of the virtual surface corresponding to the position of the viewpoint and a position different from the selected icon. Control the three-dimensional display unit to display information,
An input program that causes a computer to perform processing.
入力操作用のアイコンを含む複数の仮想表面であって、かつ複数の前記仮想表面に含まれる前記アイコンの各々は、前記仮想表面の位置が操作者から見て奥行き方向に位置するほど、前記アイコンの大きさが大きい前記複数の仮想表面を、前記操作者から見て奥行き方向に並べて配置し、かつ複数の前記仮想表面を透過させて3次元表示部に表示させ、
前記操作者の視点の位置を取得し、
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記アイコンを選択し、
取得された前記操作者の視点の位置に基づいて、前記視点の位置に対応する前記仮想表面の奥行き位置であって、かつ選択された前記アイコンとは異なる位置に、前記操作者から入力された情報を表示するように前記3次元表示部を制御する、
処理をコンピュータに実行させる入力方法。
There are a plurality of virtual surfaces including icons for input operations, and each of the icons included in the plurality of virtual surfaces is such that the position of the virtual surface is located in the depth direction when viewed from the operator. The plurality of virtual surfaces having a large size are arranged side by side in the depth direction when viewed from the operator, and the plurality of virtual surfaces are transparently displayed on the three-dimensional display unit.
Acquire the position of the viewpoint of the operator and
Based on the acquired position of the viewpoint of the operator, the icon corresponding to the position of the viewpoint is selected .
Based on the acquired position of the viewpoint of the operator, the operator inputs the depth position of the virtual surface corresponding to the position of the viewpoint and a position different from the selected icon. Control the three-dimensional display unit to display information,
An input method that causes a computer to perform processing.
JP2016069428A 2016-03-30 2016-03-30 Input device, input program, and input method Active JP6805524B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016069428A JP6805524B2 (en) 2016-03-30 2016-03-30 Input device, input program, and input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016069428A JP6805524B2 (en) 2016-03-30 2016-03-30 Input device, input program, and input method

Publications (2)

Publication Number Publication Date
JP2017182500A JP2017182500A (en) 2017-10-05
JP6805524B2 true JP6805524B2 (en) 2020-12-23

Family

ID=60007339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016069428A Active JP6805524B2 (en) 2016-03-30 2016-03-30 Input device, input program, and input method

Country Status (1)

Country Link
JP (1) JP6805524B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121102A (en) * 2017-12-28 2019-07-22 トヨタ自動車株式会社 On-vehicle equipment operation device
JP7405093B2 (en) 2018-11-20 2023-12-26 ソニーグループ株式会社 Information processing device and information processing method
WO2020188655A1 (en) * 2019-03-15 2020-09-24 マクセル株式会社 Mixed reality display device and mixed reality display device method
WO2022070429A1 (en) * 2020-10-02 2022-04-07 日本電信電話株式会社 Estimation device, estimation method, and program
JP2022171178A (en) 2021-04-30 2022-11-11 キヤノン株式会社 Display device and control method thereof, and program and recording medium thereof

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10161801A (en) * 1996-11-27 1998-06-19 Sony Corp Input device
JPH10320167A (en) * 1997-05-15 1998-12-04 Sharp Corp Virtual space window display system
JP2011081480A (en) * 2009-10-05 2011-04-21 Seiko Epson Corp Image input system
JP2012033104A (en) * 2010-08-02 2012-02-16 Olympus Imaging Corp Display device and imaging device
JP5609416B2 (en) * 2010-08-19 2014-10-22 ソニー株式会社 Information processing apparatus, information processing method, and program
JP6277673B2 (en) * 2013-10-30 2018-02-14 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device
JP6081839B2 (en) * 2013-03-27 2017-02-15 京セラ株式会社 Display device and screen control method in the same device
JP2015133088A (en) * 2014-01-16 2015-07-23 カシオ計算機株式会社 Gui system, display processing device, input processing device, and program

Also Published As

Publication number Publication date
JP2017182500A (en) 2017-10-05

Similar Documents

Publication Publication Date Title
CN109923462B (en) Sensing glasses
US10082940B2 (en) Text functions in augmented reality
JP6805524B2 (en) Input device, input program, and input method
EP3788459B1 (en) Creating interactive zones in virtual environments
US9651782B2 (en) Wearable tracking device
JP5898842B2 (en) Portable information processing device, portable game device
US9164621B2 (en) Stereoscopic display apparatus and stereoscopic shooting apparatus, dominant eye judging method and dominant eye judging program for use therein, and recording medium
JP7092028B2 (en) Information processing equipment, information processing methods, and programs
EP3117290B1 (en) Interactive information display
KR20130108643A (en) Systems and methods for a gaze and gesture interface
CN110546601B (en) Information processing device, information processing method, and program
US10096166B2 (en) Apparatus and method for selectively displaying an operational environment
EP3262505B1 (en) Interactive system control apparatus and method
CN109844600B (en) Information processing apparatus, information processing method, and program
CN107077199B (en) Apparatus for presenting virtual object on three-dimensional display and method for controlling apparatus
US20180053338A1 (en) Method for a user interface
WO2019142560A1 (en) Information processing device for guiding gaze
CN112616048A (en) AR glasses, display method and system thereof, and image processing method and device
WO2016079476A1 (en) Interactive vehicle control system
JP6428020B2 (en) GUI device
JP2019053603A (en) Display control program, apparatus and method
EP3779959A1 (en) Information processing device, information processing method, and program
US11049306B2 (en) Display apparatus and method for generating and rendering composite images
WO2006097722A2 (en) Interface control
JP2012104070A (en) Information apparatus, information providing method, program and computer readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201117

R150 Certificate of patent or registration of utility model

Ref document number: 6805524

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150