JP5931680B2 - Display device, control method, and control program - Google Patents

Display device, control method, and control program Download PDF

Info

Publication number
JP5931680B2
JP5931680B2 JP2012218160A JP2012218160A JP5931680B2 JP 5931680 B2 JP5931680 B2 JP 5931680B2 JP 2012218160 A JP2012218160 A JP 2012218160A JP 2012218160 A JP2012218160 A JP 2012218160A JP 5931680 B2 JP5931680 B2 JP 5931680B2
Authority
JP
Japan
Prior art keywords
dimensional object
display device
worksheet
user
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012218160A
Other languages
Japanese (ja)
Other versions
JP2014071736A (en
Inventor
上野 泰弘
泰弘 上野
茂輝 田辺
茂輝 田辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2012218160A priority Critical patent/JP5931680B2/en
Priority to US14/431,636 priority patent/US9778739B2/en
Priority to PCT/JP2013/076371 priority patent/WO2014051092A1/en
Priority to EP13840943.8A priority patent/EP2902874A4/en
Priority to CN201380050351.7A priority patent/CN104662493B/en
Publication of JP2014071736A publication Critical patent/JP2014071736A/en
Application granted granted Critical
Publication of JP5931680B2 publication Critical patent/JP5931680B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本出願は、表示装置、制御方法および制御プログラムに関する。   The present application relates to a display device, a control method, and a control program.

表示部を備える表示装置には、画像等を立体表示することができるものがある(例えば、特許文献1参照)。立体表示は、両眼の視差を利用して実現される。   Some display devices including a display unit can display an image or the like in a three-dimensional manner (for example, see Patent Document 1). Stereoscopic display is realized using parallax of both eyes.

特開2011−95547号公報JP 2011-95547 A

立体表示は利用者にとって親しみやすい表示形式であるにも関わらず、従来の表示装置では、立体表示は視聴目的でしか利用されず、操作の利便性を向上させるためには利用されてこなかった。本発明は、利用者に対して利便性の高い操作方法を提供することができる表示装置、制御方法および制御プログラムを提供することを目的とする。   Although the stereoscopic display is a display format familiar to the user, in the conventional display device, the stereoscopic display is used only for the purpose of viewing and has not been used for improving the convenience of operation. An object of the present invention is to provide a display device, a control method, and a control program capable of providing a user-friendly operation method.

1つの態様に係る表示装置は、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、表計算に関わる処理を実行するための平面状のオブジェクトを3次元表示する表示部と、前記オブジェクトに対する操作と、前記処理に含まれる処理項目とが対応付けられたルールを記憶する記憶部と、前記操作を検出する検出部と、前記ルールに基づいて、前記検出部によって検出される前記操作に応じて実行すべき前記処理項目を決定する制御部とを有することを特徴とする。   A display device according to one aspect displays a three-dimensional display of a planar object for executing processing related to a spreadsheet by displaying an image corresponding to each of both eyes of the user by being mounted A storage unit that stores a rule in which an operation on the object is associated with a process item included in the process, a detection unit that detects the operation, and a detection unit that detects the operation based on the rule. And a control unit that determines the processing item to be executed according to the operation.

1つの態様に係る制御方法は、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、表計算に関わる処理を実行するためのオブジェクトを3次元表示する表示装置によって実行される制御方法であって、平面状の前記オブジェクトを表示装置に3次元表示するステップと、前記オブジェクトに対する操作を検出するステップと、前記操作と、前記処理に含まれる処理項目とが対応付けられたルールを記憶する記憶部を参照して、検出される前記操作に応じて実行すべき前記処理項目を決定するステップとを含むことを特徴とする。   A control method according to one aspect is executed by a display device that displays an image corresponding to each of both eyes of a user by being worn, and displays an object for executing processing related to a spreadsheet in a three-dimensional manner. The step of displaying the planar object on a display device in three dimensions, the step of detecting an operation on the object, the operation, and a processing item included in the processing are associated with each other Determining a processing item to be executed according to the detected operation with reference to a storage unit storing a rule.

1つの態様に係る制御プログラムは、装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、表計算に関わる処理を実行するためのオブジェクトを3次元表示する表示装置に、平面状の前記オブジェクトを表示装置に3次元表示するステップと、前記オブジェクトに対する操作を検出するステップと、前記操作と、前記処理に含まれる処理項目とが対応付けられたルールを記憶する記憶部を参照して、検出される前記操作に応じて実行すべき前記処理項目を決定するステップとを実行させることを特徴とする。   The control program according to one aspect displays an image corresponding to each of the user's eyes by being attached to a display device that three-dimensionally displays an object for executing processing related to a spreadsheet. Refer to a storage unit that stores a rule in which the object is three-dimensionally displayed on a display device, a step of detecting an operation on the object, a rule in which the operation is associated with a processing item included in the processing Then, the step of determining the processing item to be executed according to the detected operation is executed.

図1は、第1の実施例に係る表示装置の斜視図である。FIG. 1 is a perspective view of a display device according to the first embodiment. 図2は、利用者によって装着された表示装置を正面から見た図である。FIG. 2 is a front view of the display device worn by the user. 図3は、表示装置の変形例を示す図である。FIG. 3 is a diagram illustrating a modification of the display device. 図4は、表示装置の他の変形例を示す図である。FIG. 4 is a diagram illustrating another modification of the display device. 図5は、表示装置の他の変形例を示す図である。FIG. 5 is a diagram illustrating another modification of the display device. 図6は、第1の実施例に係る表示装置のブロック図である。FIG. 6 is a block diagram of the display device according to the first embodiment. 図7は、制御プログラムが提供する機能に基づく制御の例を示す図である。FIG. 7 is a diagram illustrating an example of control based on the function provided by the control program. 図8は、オブジェクトデータに格納される情報の一例を示す図である。FIG. 8 is a diagram illustrating an example of information stored in object data. 図9は、作用データに格納される情報の一例を示す図である。FIG. 9 is a diagram illustrating an example of information stored in the action data. 図10は、作用データに格納される情報の一例を示す図である。FIG. 10 is a diagram illustrating an example of information stored in the action data. 図11は、作用データに格納される情報の一例を示す図である。FIG. 11 is a diagram illustrating an example of information stored in the action data. 図12は、作用データに格納される情報の一例を示す図である。FIG. 12 is a diagram illustrating an example of information stored in the action data. 図13は、作用データに格納される情報の一例を示す図である。FIG. 13 is a diagram illustrating an example of information stored in the action data. 図14は、作用データに格納される情報の一例を示す図である。FIG. 14 is a diagram illustrating an example of information stored in the action data. 図15は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化の第1の例について説明するための図である。FIG. 15 is a diagram for describing a first example of detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation. 図16は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化の第1の例について説明するための図である。FIG. 16 is a diagram for describing a first example of detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation. 図17は、第1の例における接触検出処理の処理手順を示すフローチャートである。FIG. 17 is a flowchart illustrating a processing procedure of contact detection processing in the first example. 図18は、第1の例における操作検出処理の処理手順を示すフローチャートである。FIG. 18 is a flowchart showing the procedure of the operation detection process in the first example. 図19は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化の第2の例について説明するための図である。FIG. 19 is a diagram for describing a second example of detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation. 図20は、第2の例における操作検出処理の処理手順を示すフローチャートである。FIG. 20 is a flowchart showing the procedure of the operation detection process in the second example. 図21は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化の第3の例について説明するための図である。FIG. 21 is a diagram for describing a third example of detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation. 図22は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化の第3の例について説明するための図である。FIG. 22 is a diagram for describing a third example of detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation. 図23は、第3の例における操作検出処理の処理手順を示すフローチャートである。FIG. 23 is a flowchart illustrating the procedure of the operation detection process in the third example. 図24は、3次元オブジェクトを摘んで行う操作の検出の第1の例について説明するための図である。FIG. 24 is a diagram for describing a first example of detection of an operation performed by picking up a three-dimensional object. 図25は、第1の例における選択検出処理の処理手順を示すフローチャートである。FIG. 25 is a flowchart illustrating a processing procedure of selection detection processing in the first example. 図26は、第1の例における操作検出処理の処理手順を示すフローチャートである。FIG. 26 is a flowchart illustrating the procedure of the operation detection process in the first example. 図27は、3次元オブジェクトを摘んで行う操作の検出の第1の例の変形例について説明するための図である。FIG. 27 is a diagram for describing a modified example of the first example of detecting an operation performed by picking up a three-dimensional object. 図28は、3次元オブジェクトを摘んで行う操作の検出の第2の例について説明するための図である。FIG. 28 is a diagram for describing a second example of detecting an operation performed by picking up a three-dimensional object. 図29は、第2の例における選択検出処理の処理手順を示すフローチャートである。FIG. 29 is a flowchart illustrating a processing procedure of selection detection processing in the second example. 図30は、3次元オブジェクトを摘んで行う操作の検出の第2の例の変形例について説明するための図である。FIG. 30 is a diagram for explaining a modified example of the second example of the operation detection performed by picking up the three-dimensional object. 図31は、3次元オブジェクトを摘んで行う操作の検出の第3の例について説明するための図である。FIG. 31 is a diagram for describing a third example of detection of an operation performed by picking up a three-dimensional object. 図32は、3次元オブジェクトを摘んで行う操作の検出の第3の例について説明するための図である。FIG. 32 is a diagram for describing a third example of detection of an operation performed by picking up a three-dimensional object. 図33は、第3の例における選択検出処理の処理手順を示すフローチャートである。FIG. 33 is a flowchart of the process procedure of the selection detection process in the third example. 図34は、第3の例における操作検出処理の処理手順を示すフローチャートである。FIG. 34 is a flowchart illustrating the procedure of the operation detection process in the third example. 図35は、3次元オブジェクトを摘んで行う操作の検出の第3の例の変形例について説明するための図である。FIG. 35 is a diagram for describing a modified example of the third example of detecting an operation performed by picking up a three-dimensional object. 図36は、第2の実施例に係る表示装置のブロック図である。FIG. 36 is a block diagram of a display device according to the second embodiment. 図37は、利用者から見たときの表示空間に表示されるワークシートの状態を示す図である。FIG. 37 is a diagram illustrating a state of the worksheet displayed in the display space when viewed from the user. 図38は、表示空間に表示されるワークシートの立体的な位置関係を説明するための図である。FIG. 38 is a diagram for explaining the three-dimensional positional relationship of the worksheet displayed in the display space. 図39は、ワークシートに対して検出される操作と、表計算に関わる処理に含まれる処理項目とが予め対応付けられた処理項目決定ルールの例を示す図である。FIG. 39 is a diagram illustrating an example of a process item determination rule in which an operation detected for a worksheet is associated with a process item included in a process related to a spreadsheet. 図40は、第2の実施例に係る画像の合成について説明するための図である。FIG. 40 is a diagram for explaining image composition according to the second embodiment. 図41は、利用者の指とワークシートとの位置関係を示す図である。FIG. 41 is a diagram illustrating a positional relationship between the user's finger and the worksheet. 図42は、図41のステップS82に対応するワークシートの表示例を示す図である。FIG. 42 is a diagram showing a display example of the worksheet corresponding to step S82 in FIG. 図43は、ワークシートの消失について説明するための図である。FIG. 43 is a diagram for explaining the disappearance of the worksheet. 図44は、複数のワークシート間で行われるセルコピーの例を示す図である。FIG. 44 is a diagram illustrating an example of cell copy performed between a plurality of worksheets. 図45は、ワークシートに表示されているデータの切替について説明するための図である。FIG. 45 is a diagram for describing switching of data displayed on the worksheet. 図46は、ワークシートに表示されているデータの切替について説明するための図である。FIG. 46 is a diagram for explaining switching of data displayed on the worksheet. 図47は、ワークシートに表示されているデータの切替について説明するための図である。FIG. 47 is a diagram for explaining switching of data displayed on the worksheet. 図48は、ワークシートに表示されているデータの切替について説明するための図である。FIG. 48 is a diagram for explaining switching of data displayed on the worksheet. 図49は、ワークシートに表示されているデータの切替について説明するための図である。FIG. 49 is a diagram for explaining switching of data displayed on the worksheet. 図50は、ワークシート間で行われる演算を説明するための図である。FIG. 50 is a diagram for explaining calculation performed between worksheets. 図51は、ワークシートを破る例を説明するための図である。FIG. 51 is a diagram for explaining an example of breaking a worksheet. 図52は、セルの削除について説明するための図である。FIG. 52 is a diagram for explaining cell deletion. 図53は、セルのコピーについて説明するための図である。FIG. 53 is a diagram for explaining cell copying. 図54は、ワークシートのめくり表示について説明するための図である。FIG. 54 is a diagram for explaining the display of turning a worksheet. 図55は、第2の実施例に係る処理手順を示すフローチャートである。FIG. 55 is a flowchart illustrating a processing procedure according to the second embodiment. 図56は、ワークシートの他の表示例を示す図である。FIG. 56 is a diagram showing another display example of the worksheet. 図57は、ワークシートの表示位置の整理例を示す図である。FIG. 57 is a diagram illustrating an example of arranging the display positions of the worksheet.

以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。   Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description. In addition, constituent elements in the following description include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range.

まず、図1および図2を参照しながら、第1の実施例に係る表示装置1の全体的な構成について説明する。図1は、表示装置1の斜視図である。図2は、利用者によって装着された表示装置1を正面から見た図である。図1および図2に示すように、表示装置1は、利用者の頭部に装着されるヘッドマウントタイプの装置である。   First, the overall configuration of the display device 1 according to the first embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a perspective view of the display device 1. FIG. 2 is a front view of the display device 1 attached by the user. As shown in FIG. 1 and FIG. 2, the display device 1 is a head mount type device that is worn on the user's head.

表示装置1は、前面部1aと、側面部1bと、側面部1cとを有する。前面部1aは、装着時に、利用者の両目を覆うように利用者の正面に配置される。側面部1bは、前面部1aの一方の端部に接続され、側面部1cは、前面部1aの他方の端部に接続される。側面部1bおよび側面部1cは、装着時に、眼鏡の蔓のように利用者の耳によって支持され、表示装置1を安定させる。側面部1bおよび側面部1cは、装着時に、利用者の頭部の背面で接続されるように構成されてもよい。   The display device 1 includes a front surface portion 1a, a side surface portion 1b, and a side surface portion 1c. Front part 1a is arranged in front of the user so as to cover both eyes of the user when worn. The side surface portion 1b is connected to one end portion of the front surface portion 1a, and the side surface portion 1c is connected to the other end portion of the front surface portion 1a. The side surface portion 1b and the side surface portion 1c are supported by a user's ear like a vine of glasses when worn, and stabilize the display device 1. The side part 1b and the side part 1c may be configured to be connected to the back of the user's head when worn.

前面部1aは、装着時に利用者の目と対向する面に表示部32aおよび表示部32bを備える。表示部32aは、装着時に利用者の右目と対向する位置に配設され、表示部32bは、装着時に利用者の左目と対向する位置に配設される。表示部32aは、右目用の画像を表示し、表示部32bは、左目用の画像を表示する。このように、装着時に利用者のそれぞれの目に対応した画像を表示する表示部32aおよび表示部32bを備えることにより、表示装置1は、両眼の視差を利用した3次元表示を実現することができる。   The front part 1a is provided with a display part 32a and a display part 32b on the surface facing the user's eyes when worn. The display unit 32a is disposed at a position facing the user's right eye when worn, and the display unit 32b is disposed at a position facing the user's left eye when worn. The display unit 32a displays a right-eye image, and the display unit 32b displays a left-eye image. Thus, by providing the display unit 32a and the display unit 32b that display an image corresponding to each eye of the user when worn, the display device 1 realizes three-dimensional display using binocular parallax. Can do.

表示部32aおよび表示部32bは、利用者の右目と左目に異なる画像を独立して提供することができれば、1つの表示デバイスによって構成されてもよい。例えば、表示される画像が一方の目にしか見えないように遮蔽するシャッターを高速に切り替えることによって、1つの表示デバイスが右目と左目に異なる画像を独立して提供するように構成してもよい。前面部1aは、装着時に外光が利用者の目に入らないように、利用者の目を覆うように構成されてもよい。   The display unit 32a and the display unit 32b may be configured by a single display device as long as different images can be independently provided to the right and left eyes of the user. For example, one display device may be configured to independently provide different images for the right eye and the left eye by switching at high speed a shutter that blocks the displayed image so that only one eye can see it. . The front part 1a may be configured to cover the eyes of the user so that external light does not enter the eyes of the user when worn.

前面部1aは、表示部32aおよび表示部32bが設けられている面とは反対側の面に撮影部40および撮影部42を備える。撮影部40は、前面部1aの一方の端部(装着時の右目側)の近傍に配設され、撮影部42は、前面部1aの他方の端部(装着時の左目側)の近傍に配設される。撮影部40は、利用者の右目の視界に相当する範囲の画像を取得する。撮影部42は、利用者の左目の視界に相当する範囲の画像を取得する。ここでいう視界とは、例えば、利用者が正面を見ているときの視界である。   The front surface portion 1a includes a photographing unit 40 and a photographing unit 42 on the surface opposite to the surface on which the display unit 32a and the display unit 32b are provided. The photographing unit 40 is disposed in the vicinity of one end portion (right eye side when worn) of the front surface portion 1a, and the photographing portion 42 is located in the vicinity of the other end portion (left eye side when worn) of the front surface portion 1a. Arranged. The imaging unit 40 acquires an image in a range corresponding to the field of view of the user's right eye. The imaging unit 42 acquires an image in a range corresponding to the field of view of the user's left eye. The field of view here is a field of view when the user is looking at the front, for example.

表示装置1は、撮影部40によって撮影された画像を右目用の画像として表示部32aに表示し、撮影部42によって撮影された画像を左目用の画像として表示部32bに表示する。このため、表示装置1は、装着中の利用者に、前面部1aによって視界が遮られていても、表示装置1を装着していないときと同様の光景を提供することができる。   The display device 1 displays an image photographed by the photographing unit 40 on the display unit 32a as an image for the right eye, and displays an image photographed by the photographing unit 42 on the display unit 32b as an image for the left eye. For this reason, the display device 1 can provide the user with the same scene as when the display device 1 is not worn, even if the field of view is blocked by the front surface portion 1a.

表示装置1は、このように現実の光景を利用者に提供する機能に加えて、仮想的な情報を3次元的に表示し、仮想的な情報を利用者が操作することを可能にする機能を有する。表示装置1によれば、仮想的な情報は、実際に存在しているかのように、現実の光景と重ねて表示される。そして、利用者は、例えば、手を使って仮想的な情報を実際に触っているかのように操作し、移動、回転、変形等の変化を仮想的な情報に施すことができる。このように、表示装置1は、仮想的な情報に関して、直感的で利便性の高い操作方法を提供する。以下の説明では、表示装置1によって3次元的に表示される仮想的な情報を「3次元オブジェクト」と呼ぶことがある。   In addition to the function of providing an actual scene to the user, the display device 1 displays virtual information three-dimensionally and allows the user to operate the virtual information. Have According to the display device 1, the virtual information is displayed so as to be superimposed on the actual scene as if it actually exists. Then, the user can operate the virtual information as if he / she actually touched the virtual information by using his / her hand, for example, to change the virtual information. As described above, the display device 1 provides an intuitive and highly convenient operation method for virtual information. In the following description, virtual information displayed three-dimensionally by the display device 1 may be referred to as a “three-dimensional object”.

表示装置1は、表示装置1を装着していない場合と同様の広い視界を利用者に提供する。そして、表示装置1は、この広い視界の中の任意の位置に任意の大きさで3次元オブジェクトを配置することができる。このように、表示装置1は、表示デバイスの大きさの制約を受けることなく、広い空間の様々な位置に様々な大きさの3次元オブジェクトを表示することができる。   The display device 1 provides the user with the same wide field of view as when the display device 1 is not mounted. And the display apparatus 1 can arrange | position a three-dimensional object by arbitrary magnitude | sizes in the arbitrary positions in this wide visual field. As described above, the display device 1 can display three-dimensional objects having various sizes at various positions in a wide space without being restricted by the size of the display device.

図1および図2では、表示装置1が、眼鏡(ゴーグル)のような形状を有する例を示したが、表示装置1の形状はこれに限定されない。例えば、表示装置1は、図3に示す表示装置2のように、利用者の頭部のほぼ上半分を覆うようなヘルメットタイプの形状を有していてもよい。あるいは、表示装置1は、図4に示す表示装置3のように、利用者の顔面のほぼ全体を覆うようなマスクタイプの形状を有していてもよい。表示装置1は、図5に示す表示装置4のように、情報処理装置、バッテリ装置等の外部装置4dと有線または無線で接続される構成であってもよい。   1 and 2 show an example in which the display device 1 has a shape like glasses (goggles), the shape of the display device 1 is not limited to this. For example, the display device 1 may have a helmet-type shape that covers substantially the upper half of the user's head, like the display device 2 shown in FIG. 3. Alternatively, the display device 1 may have a mask type shape that covers almost the entire face of the user, like the display device 3 shown in FIG. The display device 1 may be configured to be connected to an external device 4d such as an information processing device or a battery device by wire or wirelessly like the display device 4 shown in FIG.

次に、図6を参照しながら、表示装置1の機能的な構成について説明する。図6は、第1の実施例に係る表示装置1のブロック図である。図6に示すように、表示装置1は、操作部13と、制御部22と、記憶部24と、表示部32aおよび32bと、撮影部40および42と、検出部44と、測距部46とを有する。操作部13は、表示装置1の起動、停止、動作モードの変更等の基本的な操作を受け付ける。   Next, a functional configuration of the display device 1 will be described with reference to FIG. FIG. 6 is a block diagram of the display device 1 according to the first embodiment. As shown in FIG. 6, the display device 1 includes an operation unit 13, a control unit 22, a storage unit 24, display units 32a and 32b, photographing units 40 and 42, a detection unit 44, and a distance measurement unit 46. And have. The operation unit 13 receives basic operations such as starting and stopping the display device 1 and changing the operation mode.

表示部32aおよび32bは、液晶ディスプレイ(Liquid Crystal Display)、有機EL(Organic Electro−Luminescence)パネル等の表示デバイスを備え、制御部22から入力される制御信号に従って各種の情報を表示する。表示部32aおよび32bは、レーザー光線等の光源を用いて利用者の網膜に画像を投影する投影装置であってもよい。   The display units 32 a and 32 b include display devices such as a liquid crystal display (LCD) and an organic EL (Organic Electro-Luminescence) panel, and display various types of information according to control signals input from the control unit 22. The display units 32a and 32b may be projection devices that project an image onto the user's retina using a light source such as a laser beam.

撮影部40および42は、CCD(Charge Coupled Device Image Sensor)、CMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを用いて電子的に画像を撮影する。そして、撮影部40および42は、撮影した画像を信号に変換して制御部22へ出力する。   The imaging units 40 and 42 electronically capture an image using an image sensor such as a charge coupled device image sensor (CCD) or a complementary metal oxide semiconductor (CMOS). The photographing units 40 and 42 convert the photographed images into signals and output the signals to the control unit 22.

検出部44は、撮影部40および42の撮影範囲に存在する現実の物体を検出する。検出部44は、例えば、撮影範囲に存在する現実の物体のうち、予め登録された形状(例えば、人間の手の形状)にマッチする物体を検出する。検出部44は、予め形状が登録されていない物体についても、画素の明度、彩度、色相のエッジ等に基づいて、画像中の現実の物体の範囲(形状および大きさ)を検出するように構成されてもよい。   The detection unit 44 detects an actual object that exists in the imaging range of the imaging units 40 and 42. For example, the detection unit 44 detects an object that matches a pre-registered shape (for example, the shape of a human hand) among real objects existing in the imaging range. The detection unit 44 detects the range (shape and size) of the actual object in the image based on the brightness, saturation, hue edge, and the like of the object even if the shape is not registered in advance. It may be configured.

測距部46は、撮影部40および42の撮影範囲に存在する現実の物体までの距離を測定する。現実の物体までの距離は、表示装置1を装着している利用者のそれぞれの目の位置を基準として目毎に測定される。このため、測距部46が距離を測定する基準位置がそれぞれの目の位置とずれている場合には、測距部46の測定値は、そのずれに応じて、目の位置までの距離を表すように補正される。   The distance measuring unit 46 measures the distance to an actual object existing in the imaging range of the imaging units 40 and 42. The distance to the actual object is measured for each eye based on the position of each eye of the user wearing the display device 1. For this reason, when the reference position where the distance measuring unit 46 measures the distance is shifted from the position of each eye, the measured value of the distance measuring unit 46 indicates the distance to the eye position according to the difference. It is corrected to represent.

本実施例においては、撮影部40および42が、検出部44および測距部46を兼ねる。すなわち、本実施例においては、撮影部40および42によって撮影される画像を解析することによって、撮影範囲内の物体が検出される。さらに、撮影部40によって撮影される画像に含まれる物体と撮影部42によって撮影される画像に含まれる物体とを比較することにより、物体との距離が測定(算出)される。   In the present embodiment, the imaging units 40 and 42 also serve as the detection unit 44 and the distance measurement unit 46. That is, in this embodiment, an object within the shooting range is detected by analyzing the images shot by the shooting units 40 and 42. Furthermore, the distance from the object is measured (calculated) by comparing the object included in the image captured by the capturing unit 40 with the object included in the image captured by the capturing unit 42.

表示装置1は、撮影部40および42とは別に、検出部44を備えてもよい。検出部44は、例えば、可視光、赤外線、紫外線、電波、音波、磁気、静電容量の少なくとも1つを用いて、撮影範囲に存在する現実の物体を検出するセンサであってもよい。表示装置1は、撮影部40および42とは別に、測距部46を備えてもよい。測距部46は、例えば、可視光、赤外線、紫外線、電波、音波、磁気、静電容量の少なくとも1つを用いて、撮影範囲に存在する現実の物体までの距離を検出するセンサであってもよい。表示装置1は、TOF(Time-of-Flight)法を用いたセンサのように、検出部44および測距部46を兼ねることができるセンサを備えてもよい。   The display device 1 may include a detection unit 44 separately from the imaging units 40 and 42. The detection unit 44 may be, for example, a sensor that detects an actual object existing in the imaging range using at least one of visible light, infrared light, ultraviolet light, radio waves, sound waves, magnetism, and capacitance. The display device 1 may include a distance measuring unit 46 separately from the imaging units 40 and 42. The distance measuring unit 46 is a sensor that detects the distance to an actual object existing in the imaging range using at least one of visible light, infrared light, ultraviolet light, radio waves, sound waves, magnetism, and capacitance, for example. Also good. The display device 1 may include a sensor that can also serve as the detection unit 44 and the distance measurement unit 46, such as a sensor using a TOF (Time-of-Flight) method.

制御部22は、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメモリとを備え、これらのハードウェア資源を用いてプログラムを実行することによって各種の機能を実現する。具体的には、制御部22は、記憶部24に記憶されているプログラムやデータを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をCPUに実行させる。そして、制御部22は、CPUによる命令の実行結果に応じて、メモリおよび記憶部24に対してデータの読み書きを行ったり、表示部32a等の動作を制御したりする。CPUが命令を実行するに際しては、メモリに展開されているデータや検出部44を介して検出される操作がパラメータや判定条件の一部として利用される。   The control unit 22 includes a CPU (Central Processing Unit) that is a calculation unit and a memory that is a storage unit, and implements various functions by executing programs using these hardware resources. Specifically, the control unit 22 reads a program or data stored in the storage unit 24 and expands it in a memory, and causes the CPU to execute instructions included in the program expanded in the memory. The control unit 22 reads / writes data from / to the memory and the storage unit 24 and controls the operation of the display unit 32a and the like according to the execution result of the instruction by the CPU. When the CPU executes an instruction, the data developed in the memory and the operation detected via the detection unit 44 are used as a part of parameters and determination conditions.

記憶部24は、フラッシュメモリ等の不揮発性を有する記憶装置からなり、各種のプログラムやデータを記憶する。記憶部24に記憶されるプログラムには、制御プログラム24aが含まれる。記憶部24に記憶されるデータには、オブジェクトデータ24bと、作用データ24cと、仮想空間データ24dとが含まれる。記憶部24は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されてもよい。この場合、制御プログラム24a、オブジェクトデータ24b、作用データ24c、仮想空間データ24dは、記憶媒体に記憶されていてもよい。また、制御プログラム24a、オブジェクトデータ24b、作用データ24c、仮想空間データ24dは、無線通信または有線通信によってサーバ装置等の他の装置から取得されてもよい。   The storage unit 24 includes a nonvolatile storage device such as a flash memory, and stores various programs and data. The program stored in the storage unit 24 includes a control program 24a. The data stored in the storage unit 24 includes object data 24b, action data 24c, and virtual space data 24d. The storage unit 24 may be configured by a combination of a portable storage medium such as a memory card and a read / write device that reads from and writes to the storage medium. In this case, the control program 24a, object data 24b, action data 24c, and virtual space data 24d may be stored in a storage medium. Further, the control program 24a, the object data 24b, the action data 24c, and the virtual space data 24d may be acquired from other devices such as a server device by wireless communication or wired communication.

制御プログラム24aは、表示装置1を稼働させるための各種制御に関する機能を提供する。制御プログラム24aが提供する機能には、撮影部40および42が取得する画像に3次元オブジェクトを重ねて表示部32aおよび32bに表示する機能、3次元オブジェクトに対する操作を検出する機能、検出した操作に応じて3次元オブジェクトを変化させる機能等が含まれる。   The control program 24 a provides functions related to various controls for operating the display device 1. The functions provided by the control program 24a include a function for superimposing a three-dimensional object on images acquired by the photographing units 40 and 42 and displaying the same on the display units 32a and 32b, a function for detecting an operation on the three-dimensional object, A function for changing the three-dimensional object in response to this is included.

制御プログラム24aは、検出処理部25と、表示オブジェクト制御部26と、画像合成部27とを含む。検出処理部25は、撮影部40および42の撮影範囲に存在する現実の物体を検出するための機能を提供する。検出処理部25が提供する機能には、検出したそれぞれの物体までの距離を測定する機能が含まれる。   The control program 24 a includes a detection processing unit 25, a display object control unit 26, and an image composition unit 27. The detection processing unit 25 provides a function for detecting an actual object existing in the imaging range of the imaging units 40 and 42. The function provided by the detection processing unit 25 includes a function of measuring the distance to each detected object.

表示オブジェクト制御部26は、仮想空間にどのような3次元オブジェクトが配置され、それぞれの3次元オブジェクトがどのような状態にあるかを管理するための機能を提供する。表示オブジェクト制御部26が提供する機能には、検出処理部25の機能によって検出される現実の物体の動きに基づいて3次元オブジェクトに対する操作を検出し、検出した操作に基づいて3次元オブジェクトを変化させる機能が含まれる。   The display object control unit 26 provides a function for managing what three-dimensional objects are arranged in the virtual space and what state each three-dimensional object is in. The functions provided by the display object control unit 26 include detecting an operation on a three-dimensional object based on the movement of an actual object detected by the function of the detection processing unit 25, and changing the three-dimensional object based on the detected operation. The function to be included is included.

画像合成部27は、現実の空間の画像と仮想空間の画像とを合成することにより、表示部32aに表示する画像と表示部32bに表示する画像とを生成するための機能を提供する。画像合成部27が提供する機能には、検出処理部25の機能によって測定される現実の物体までの距離と、仮想空間における視点から3次元オブジェクトまでの距離とに基づいて、現実の物体と3次元オブジェクトの前後関係を判定し、重なりを調整する機能が含まれる。   The image composition unit 27 provides a function for generating an image to be displayed on the display unit 32a and an image to be displayed on the display unit 32b by synthesizing the image in the real space and the image in the virtual space. The function provided by the image compositing unit 27 includes the real object and 3 based on the distance to the real object measured by the function of the detection processing unit 25 and the distance from the viewpoint to the three-dimensional object in the virtual space. A function to determine the context of the dimension object and adjust the overlap is included.

オブジェクトデータ24bは、3次元オブジェクトの形状および性質に関する情報を含む。オブジェクトデータ24bは、3次元オブジェクトを表示するために用いられる。作用データ24cは、表示されている3次元オブジェクトに対する操作が3次元オブジェクトにどのように作用するかに関する情報を含む。作用データ24cは、表示されている3次元オブジェクトに対する操作が検出された場合に、3次元オブジェクトをどのように変化させるかを判定するために用いられる。ここでいう変化には、移動、回転、変形、消失、置換等が含まれる。仮想空間データ24dは、仮想空間に配置される3次元オブジェクトの状態に関する情報を保持する。3次元オブジェクトの状態には、例えば、位置、姿勢、変形の状況等が含まれる。なお、置換とは、一のオブジェクトを他のオブジェクトに置き換えることである。   The object data 24b includes information regarding the shape and properties of the three-dimensional object. The object data 24b is used for displaying a three-dimensional object. The action data 24c includes information regarding how an operation on the displayed three-dimensional object acts on the three-dimensional object. The action data 24c is used to determine how to change the three-dimensional object when an operation on the displayed three-dimensional object is detected. The change here includes movement, rotation, deformation, disappearance, replacement, and the like. The virtual space data 24d holds information regarding the state of the three-dimensional object arranged in the virtual space. The state of the three-dimensional object includes, for example, a position, a posture, a deformation state, and the like. Note that replacement means replacing one object with another object.

次に、図7を参照しながら、制御プログラム24aが提供する機能に基づく制御の例について説明する。画像P1aは、撮影部40によって得られる画像、すなわち、現実の空間を右目で見た光景に相当する画像である。画像P1aには、テーブルT1と、利用者の手H1とが写っている。表示装置1は、同じ場面を撮影部42によって撮影した画像、すなわち、現実の空間を左目で見た光景に相当する画像も取得する。   Next, an example of control based on the function provided by the control program 24a will be described with reference to FIG. The image P1a is an image obtained by the photographing unit 40, that is, an image corresponding to a sight of a real space viewed with the right eye. The table P1 and the user's hand H1 are shown in the image P1a. The display device 1 also acquires an image obtained by photographing the same scene by the photographing unit 42, that is, an image corresponding to a sight when the real space is viewed with the left eye.

画像P2aは、仮想空間データ24dおよびオブジェクトデータ24bに基づいて生成される右目用の画像である。この例において、仮想空間データ24dは、仮想空間中に存在するブロック状の3次元オブジェクトBL1の状態に関する情報を保持し、オブジェクトデータ24bは、3次元オブジェクトBL1の形状および性質に関する情報を保持する。表示装置1は、これらの情報に基づいて仮想空間を再現し、再現した仮想空間を右目の視点から見た画像P2aを生成する。仮想空間における右目(視点)の位置は、所定の規則に基づいて決定される。表示装置1は、同様に、再現した仮想空間を左目の視点で見た画像も生成する。すなわち、表示装置1は、画像P2aと組み合わせることによって3次元オブジェクトBL1が3次元的に表示される画像も生成する。   The image P2a is a right-eye image generated based on the virtual space data 24d and the object data 24b. In this example, the virtual space data 24d holds information related to the state of the block-shaped three-dimensional object BL1 existing in the virtual space, and the object data 24b holds information related to the shape and properties of the three-dimensional object BL1. The display device 1 reproduces the virtual space based on these pieces of information, and generates an image P2a obtained by viewing the reproduced virtual space from the viewpoint of the right eye. The position of the right eye (viewpoint) in the virtual space is determined based on a predetermined rule. Similarly, the display device 1 also generates an image obtained by viewing the reproduced virtual space from the viewpoint of the left eye. That is, the display device 1 also generates an image in which the three-dimensional object BL1 is displayed three-dimensionally by combining with the image P2a.

表示装置1は、図7に示すステップS1において、画像P1aおよび画像P2aを合成して、画像P3aを生成する。画像P3aは、右目用の画像として表示部32aに表示される画像である。このとき、表示装置1は、利用者の右目の位置を基準として、撮影部40の撮影範囲にある現実の物体と、仮想空間内に存在する3次元オブジェクトとの前後関係を判定する。そして、現実の物体と3次元オブジェクトとが重なっている場合には、利用者の右目により近いものが前面に見えるように重なりを調整する。   In step S1 shown in FIG. 7, the display device 1 combines the image P1a and the image P2a to generate an image P3a. The image P3a is an image displayed on the display unit 32a as a right-eye image. At this time, the display device 1 determines the front-rear relationship between the real object in the shooting range of the shooting unit 40 and the three-dimensional object existing in the virtual space, with the position of the user's right eye as a reference. When the real object and the three-dimensional object overlap, the overlap is adjusted so that the object closer to the user's right eye can be seen in the front.

このような重なりの調整は、現実の物体と3次元オブジェクトとが重なる画像上の領域内の所定の大きさの範囲毎(例えば、1画素毎)に行われる。このため、現実の空間における視点から現実の物体までの距離は、画像上の所定の大きさの範囲毎に測定される。さらに、仮想空間における視点から3次元オブジェクトまでの距離は、3次元オブジェクトの位置、形状、姿勢等を考慮して、画像上の所定の大きさの範囲毎に算出される。   Such overlapping adjustment is performed for each range of a predetermined size (for example, for each pixel) in the region on the image where the real object and the three-dimensional object overlap. For this reason, the distance from the viewpoint in the real space to the real object is measured for each range of a predetermined size on the image. Further, the distance from the viewpoint in the virtual space to the three-dimensional object is calculated for each range of a predetermined size on the image in consideration of the position, shape, posture, etc. of the three-dimensional object.

図7に示すステップS1の場面では、3次元オブジェクトBL1は、仮想空間において、テーブルT1が現実の空間で存在する位置のすぐ上に相当する位置に配置されている。さらに、図7に示すステップS1の場面では、利用者の手H1と3次元オブジェクトBL1が、利用者の右目の位置を基準として、ほぼ同じ方向に、ほぼ同じ距離で存在している。このため、所定の大きさの範囲毎に重なりを調整することにより、合成後の画像P3aでは、手H1と3次元オブジェクトBL1とが重なっている領域のうち、手H1の親指に相当する部分では手H1が前面に現れ、他の部分では3次元オブジェクトBL1が前面に現れている。さらに、テーブルT1と3次元オブジェクトBL1とが重なっている領域では、3次元オブジェクトBL1が前面に現れている。   In the scene of step S1 shown in FIG. 7, the three-dimensional object BL1 is arranged in a position corresponding to the position immediately above the position where the table T1 exists in the real space in the virtual space. Furthermore, in the scene of step S1 shown in FIG. 7, the user's hand H1 and the three-dimensional object BL1 exist in substantially the same direction and at substantially the same distance with respect to the position of the user's right eye. For this reason, by adjusting the overlap for each range of a predetermined size, in the combined image P3a, in the portion corresponding to the thumb of the hand H1 in the region where the hand H1 and the three-dimensional object BL1 overlap. The hand H1 appears on the front surface, and the three-dimensional object BL1 appears on the front surface in other portions. Furthermore, in the area where the table T1 and the three-dimensional object BL1 overlap, the three-dimensional object BL1 appears on the front surface.

このような重なりの調整により、図7に示すステップS1では、あたかもテーブルT1上に3次元オブジェクトBL1が置かれ、3次元オブジェクトBL1を利用者が手H1で摘んでいるかのような画像P3aが得られている。表示装置1は、同様の処理により、撮影部42によって撮影した画像と仮想空間を左目の視点から見た画像とを合成し、左目用の画像として表示部32bに表示される画像を生成する。左目用の画像を生成する場合、現実の物体と3次元オブジェクトとの重なりは、利用者の左目の位置を基準として調整される。   By adjusting the overlap, in step S1 shown in FIG. 7, an image P3a is obtained as if the three-dimensional object BL1 is placed on the table T1 and the user grasps the three-dimensional object BL1 with the hand H1. It has been. The display device 1 generates an image displayed on the display unit 32b as an image for the left eye by synthesizing the image captured by the imaging unit 42 and the image obtained by viewing the virtual space from the viewpoint of the left eye by the same processing. When generating an image for the left eye, the overlap between the real object and the three-dimensional object is adjusted based on the position of the user's left eye.

表示装置1は、こうして生成した合成画像を表示部32aおよび32bに表示する。その結果、利用者は、あたかも、3次元オブジェクトBL1がテーブルT1の上に置かれ、自分の手H1で3次元オブジェクトBL1を摘んでいるかのような光景を見ることができる。   The display device 1 displays the composite image thus generated on the display units 32a and 32b. As a result, the user can see a scene as if the three-dimensional object BL1 is placed on the table T1 and the user grasps the three-dimensional object BL1 with his / her hand H1.

図7に示すステップS2の場面では、利用者が手H1を矢印A1の方向に移動させている。この場合、撮影部40によって得られる画像は、手H1の位置が右へ移動した画像P1bに変化する。さらに、表示装置1は、手H1の動きを、3次元オブジェクトを摘んだままで右へ移動させる操作と判定し、操作に応じて、仮想空間における3次元オブジェクトの位置を右へ移動させる。仮想空間における3次元オブジェクトの移動は、仮想空間データ24dに反映される。その結果、仮想空間データ24dおよびオブジェクトデータ24bに基づいて生成される右目用の画像は、3次元オブジェクトBL1の位置が右へ移動した画像P2bに変化する。表示装置1による操作の検出の詳細については、後述する。   In the scene of step S2 shown in FIG. 7, the user moves the hand H1 in the direction of the arrow A1. In this case, the image obtained by the imaging unit 40 changes to an image P1b in which the position of the hand H1 has moved to the right. Further, the display device 1 determines that the movement of the hand H1 is an operation of moving the hand H1 to the right while holding the three-dimensional object, and moves the position of the three-dimensional object in the virtual space to the right according to the operation. The movement of the three-dimensional object in the virtual space is reflected in the virtual space data 24d. As a result, the image for the right eye generated based on the virtual space data 24d and the object data 24b changes to an image P2b in which the position of the three-dimensional object BL1 has moved to the right. Details of operation detection by the display device 1 will be described later.

表示装置1は、画像P1bおよび画像P2bを合成して右目用の画像P3bを生成する。画像P3bは、画像P3aと比較して、テーブルT1上のより右側の位置で、3次元オブジェクトBL1を利用者が手H1で摘んでいるかのような画像となっている。表示装置1は、同様に左目用の合成画像を生成する。そして、表示装置1は、こうして生成した合成画像を表示部32aおよび32bに表示する。その結果、利用者は、あたかも、自分の手H1で3次元オブジェクトBL1を摘んで右へ移動させたかのような光景を見ることができる。   The display device 1 combines the image P1b and the image P2b to generate an image P3b for the right eye. The image P3b is an image as if the user is holding the three-dimensional object BL1 with the hand H1 at a position on the right side of the table T1 as compared with the image P3a. The display device 1 similarly generates a composite image for the left eye. Then, the display device 1 displays the composite image thus generated on the display units 32a and 32b. As a result, the user can see a scene as if he / she picked the three-dimensional object BL1 with his / her hand H1 and moved it to the right.

このような表示用の合成画像の更新は、一般的な動画のフレームレートと同等の頻度(例えば、毎秒30回)で実行される。その結果、利用者の操作に応じた3次元オブジェクトの変化は、表示装置1が表示する画像にほぼリアルタイムに反映され、利用者は、あたかも実際に存在しているかのように、違和感なく3次元オブジェクトを操作することができる。さらに、本実施例に係る構成では、3次元オブジェクトを操作する利用者の手が、利用者の目と表示部32aおよび32bの間に位置することがないため、利用者は、手によって3次元オブジェクトの表示が遮られることを気にすることなく操作を行うことができる。   Such a composite image for display is updated at a frequency (for example, 30 times per second) equal to the frame rate of a general moving image. As a result, the change of the three-dimensional object according to the user's operation is reflected in the image displayed on the display device 1 in almost real time, and the user can feel the three-dimensional without any sense of incongruity as if it actually exists. You can manipulate objects. Furthermore, in the configuration according to the present embodiment, the user's hand that operates the three-dimensional object is not positioned between the user's eyes and the display units 32a and 32b. The operation can be performed without worrying about the display of the object being interrupted.

次に、図8から図14を参照しながら、図6に示したオブジェクトデータ24bおよび作用データ24cについてさらに詳しく説明する。図8は、オブジェクトデータ24bに格納される情報の一例を示す図である。図9から図14は、作用データ24cに格納される情報の一例を示す図である。   Next, the object data 24b and the action data 24c shown in FIG. 6 will be described in more detail with reference to FIGS. FIG. 8 is a diagram illustrating an example of information stored in the object data 24b. 9 to 14 are diagrams illustrating examples of information stored in the action data 24c.

図8に示すように、オブジェクトデータ24bには、種別、形状情報、色、透明度等を含む情報が3次元オブジェクト毎に格納される。種別は、3次元オブジェクトの物理的な性質を示す。種別は、例えば、「剛体」、「弾性体」等の値をとる。形状情報は、3次元オブジェクトの形状を示す情報である。形状情報は、例えば、3次元オブジェクトを構成する面の頂点座標の集合である。色は、3次元オブジェクトの表面の色である。透明度は、3次元オブジェクトが光を透過させる度合いである。オブジェクトデータ24bは、複数の3次元オブジェクトに関する情報を保持することができる。   As shown in FIG. 8, the object data 24b stores information including type, shape information, color, transparency, etc. for each three-dimensional object. The type indicates the physical property of the three-dimensional object. The type takes values such as “rigid body” and “elastic body”, for example. The shape information is information indicating the shape of the three-dimensional object. The shape information is, for example, a set of vertex coordinates of the surfaces constituting the three-dimensional object. The color is the color of the surface of the three-dimensional object. Transparency is the degree to which a three-dimensional object transmits light. The object data 24b can hold information regarding a plurality of three-dimensional objects.

図9から図14に示す例では、押す操作が検出された場合の変化に関する情報が3次元オブジェクトの種別毎に作用データ24cに格納されている。図9に示すように、3次元オブジェクトの種別が「剛体」の場合、支点の有無、押された方向における障害物の有無、押される速度に応じて、押す操作が検出された場合の変化が異なる。ここでいう障害物とは、他の3次元オブジェクトであってもよいし、現実の物体であってもよい。また、押される速度が速いか遅いかは閾値に基づいて判定される。   In the example shown in FIGS. 9 to 14, information regarding a change when a pressing operation is detected is stored in the action data 24 c for each type of three-dimensional object. As shown in FIG. 9, when the type of the three-dimensional object is “rigid”, the change when the pressing operation is detected according to the presence / absence of the fulcrum, the presence / absence of the obstacle in the pressed direction, and the pressing speed changes. Different. The obstacle here may be another three-dimensional object or an actual object. Further, whether the pressing speed is fast or slow is determined based on a threshold value.

3次元オブジェクトに支点がなく、押された方向に障害物がない場合、3次元オブジェクトは、押された方向に押された量に応じて移動するように表示される。このように表示される3次元オブジェクトは、例えば、積み木、ペン、本である。移動の仕方については、滑るのか回転するのかを3次元オブジェクトの形状に基づいて決定してよい。また、押す物体と一緒に移動するのか、押す物体にはじかれるように物体と離れて移動するのかについては、押される速度に基づいて決定してよいし、3次元オブジェクトと底面の摩擦抵抗の算出値または設定値に基づいて決定してもよい。   If the three-dimensional object has no fulcrum and there is no obstacle in the pushed direction, the three-dimensional object is displayed so as to move according to the amount pushed in the pushed direction. The three-dimensional object displayed in this way is, for example, a building block, a pen, or a book. As to how to move, whether to slide or rotate may be determined based on the shape of the three-dimensional object. Further, whether to move with the pushed object or move away from the object so as to be repelled by the pushed object may be determined based on the pushing speed, and calculation of frictional resistance between the three-dimensional object and the bottom surface. You may determine based on a value or a setting value.

3次元オブジェクトに支点がなく、押された方向に固定された障害物がある場合、3次元オブジェクトは、押された方向に押された量に応じて移動し、障害物と接触した時点で移動が停止するように表示される。このように表示される3次元オブジェクトは、例えば、積み木、ペン、本である。押された速度が速い場合は、3次元オブジェクトが障害物を破壊して移動を継続することとしてもよい。また、3次元オブジェクトが押す物体にはじかれるように物体と離れて移動している間に障害物と接触した場合は、跳ね返ったように3次元オブジェクトを逆方向に移動させてもよい。   If the 3D object has no fulcrum and there is an obstacle fixed in the pushed direction, the 3D object moves according to the amount pushed in the pushed direction and moves when it touches the obstacle. Appears to stop. The three-dimensional object displayed in this way is, for example, a building block, a pen, or a book. When the pushed speed is high, the three-dimensional object may destroy the obstacle and continue to move. Also, when the 3D object comes in contact with an obstacle while being moved away from the object so as to be repelled by the pressed object, the 3D object may be moved in the opposite direction so as to bounce off.

3次元オブジェクトに支点がなく、押された方向に固定されていない他の剛体があり、押される速度が遅い場合、3次元オブジェクトは、押された方向に押された量に応じて移動し、他の剛体と接触した後は、他の剛体もともに移動するように表示される。また、3次元オブジェクトに支点がなく、押された方向に固定されていない他の剛体があり、押される速度が速い場合、3次元オブジェクトは、押された方向に押された量に応じて移動するように表示される。そして、3次元オブジェクトが他の剛体と接触した後は、他の剛体がはじかれて移動するように表示される。他の剛体と接触した後、3次元オブジェクトは、その場で停止してもよいし、速度を落として移動を継続してもよい。このように表示される3次元オブジェクトと他の剛体の組み合わせは、例えば、ボーリングの球とピンの組み合わせや、ビー玉同士の組み合わせである。   If the 3D object has no fulcrum and there are other rigid bodies that are not fixed in the pushed direction, and the pushed speed is slow, the 3D object moves according to the amount pushed in the pushed direction, After contacting another rigid body, the other rigid bodies are displayed to move together. If the 3D object has no fulcrum and there is another rigid body that is not fixed in the pressed direction, and the pressed speed is fast, the 3D object moves according to the amount pressed in the pressed direction. Is displayed. After the three-dimensional object comes into contact with another rigid body, the other rigid body is displayed so as to be repelled and moved. After coming into contact with another rigid body, the three-dimensional object may stop on the spot or continue to move at a reduced speed. The combination of the three-dimensional object and the other rigid body displayed in this way is, for example, a combination of a bowling ball and a pin, or a combination of marbles.

3次元オブジェクトに支点がなく、押された方向に固定されていない他の剛体があるが、他の剛体はすり抜け可能である場合、3次元オブジェクトは、押された方向に押された量に応じて移動し、他の剛体と接触した後も、他の剛体をすり抜けてそのまま移動し続けるように表示される。現実には、剛体が剛体をすり抜けることはないが、このようなすり抜けを可能にすることにより、利用者に斬新な体験を提供することができる。このように表示される3次元オブジェクトと他の剛体の組み合わせは、例えば、ボーリングの球とピンの組み合わせや、ビー玉同士の組み合わせである。押される速度に閾値を設け、押される速度が閾値以下の場合は、3次元オブジェクトが他の剛体をすり抜けないこととしてもよい。   If there is another rigid body that does not have a fulcrum in the 3D object and is not fixed in the pressed direction, but the other rigid body can pass through, the 3D object will depend on the amount pressed in the pressed direction. After moving and contacting another rigid body, it is displayed to continue moving as it passes through the other rigid body. In reality, a rigid body does not slip through a rigid body, but by enabling such a slip-through, a novel experience can be provided to the user. The combination of the three-dimensional object and the other rigid body displayed in this way is, for example, a combination of a bowling ball and a pin, or a combination of marbles. A threshold may be provided for the pushed speed, and when the pushed speed is equal to or less than the threshold, the three-dimensional object may not pass through another rigid body.

3次元オブジェクトに支点がある場合、3次元オブジェクトは、押された方向および量に応じて、支点を中心に回転するように表示される。ここでいう回転とは、360度ぐるぐると回る回転であってもよいし、所定の回転範囲内を往復する回動であってもよい。このように表示される3次元オブジェクトは、例えば、振り子、ボクシングのサンドバック、風車である。   When the three-dimensional object has a fulcrum, the three-dimensional object is displayed so as to rotate around the fulcrum according to the pressed direction and amount. The rotation referred to here may be a rotation that rotates around 360 degrees, or a rotation that reciprocates within a predetermined rotation range. The three-dimensional object displayed in this way is, for example, a pendulum, a boxing sandback, or a windmill.

また、図10に示すように、3次元オブジェクトの種別が「弾性体」の場合、素材、変化量の制限の有無、押される速度に応じて、押す操作が検出された場合の変化が異なる。ここでいう素材は、3次元オブジェクトの想定上の素材であり、オブジェクトデータ24bにおいて定義される。   Also, as shown in FIG. 10, when the type of the three-dimensional object is “elastic body”, the change when the pressing operation is detected differs depending on the material, the presence / absence of the change amount limitation, and the pressing speed. The material here is an assumed material of the three-dimensional object and is defined in the object data 24b.

3次元オブジェクトの素材がゴム系であり、変化量に制限がなく、押される速度が遅い場合、3次元オブジェクトは、押された方向に押された量に応じて変形し、押される状態から解放されると元の形状に戻るように表示される。また、3次元オブジェクトの素材がゴム系であり、変化量に制限がなく、押される速度が速い場合、3次元オブジェクトは、押された方向に押された量に応じて変形し、その後、はじかれて、元の形状に戻りながら押された方向へ移動するように表示される。このように表示される3次元オブジェクトは、例えば、ゴムボール、消しゴムである。   If the material of the 3D object is rubber, there is no limit on the amount of change, and the pressing speed is slow, the 3D object is deformed according to the amount pressed in the pressed direction and released from the pressed state. When it is done, it is displayed so as to return to the original shape. In addition, when the material of the three-dimensional object is rubber, there is no limit on the amount of change and the pressing speed is fast, the three-dimensional object is deformed according to the amount pressed in the pressing direction, and then the flip It is displayed to move in the pressed direction while returning to the original shape. The three-dimensional object displayed in this way is, for example, a rubber ball or an eraser.

3次元オブジェクトの素材がゴム系であり、変化量に制限がある場合、3次元オブジェクトは、押された方向に押された量に応じて変形可能範囲まで変形し、その後も押す操作が検出されると、元の形状に戻りながら押された方向へ移動するように表示される。このように表示される3次元オブジェクトは、例えば、ゴムボール、消しゴムである。   If the material of the 3D object is rubber, and the amount of change is limited, the 3D object will be deformed to the deformable range according to the amount pressed in the pressed direction, and the pressing operation will be detected thereafter. Then, it is displayed to move in the pushed direction while returning to the original shape. The three-dimensional object displayed in this way is, for example, a rubber ball or an eraser.

3次元オブジェクトの素材が金属系の場合、3次元オブジェクトは、押された方向に押された量に応じて変形可能範囲まで変形し、押される状態から解放されると元の形状に戻ったり変形したりを繰り返す(振動する)ように表示される。変形可能方向以外の方向に押された場合、3次元オブジェクトは、剛体と同様に移動する。このように表示される3次元オブジェクトは、例えば、板ばね、弦巻ばねである。   If the material of the 3D object is metal, the 3D object will be deformed to the deformable range according to the amount pressed in the pressed direction, and will return to its original shape when released from the pressed state. To repeat (vibrate). When pressed in a direction other than the deformable direction, the three-dimensional object moves in the same manner as a rigid body. The three-dimensional object displayed in this way is, for example, a leaf spring or a string spring.

また、図11に示すように、3次元オブジェクトの種別が「塑性体」の場合、3次元オブジェクトは、押された箇所がへこんで全体形状が変化するように表示される。このように表示される3次元オブジェクトは、例えば、粘土である。   As shown in FIG. 11, when the type of the three-dimensional object is “plastic”, the three-dimensional object is displayed such that the pressed portion is recessed and the overall shape changes. The three-dimensional object displayed in this way is, for example, clay.

また、図12に示すように、3次元オブジェクトの種別が「液体」の場合、押される速度に応じて、押す操作が検出された場合の変化が異なる。押される速度が遅い場合、押す物体が3次元オブジェクト、すなわち、液体につかるように表示される。押される速度が中程度の場合、押す物体が液体につかり、液体に波紋が拡がるように表示される。押される速度が速い場合、押す物体が液体につかり、液体から水しぶきがあがるように表示される。このように表示される3次元オブジェクトは、例えば、コップに入った水である。   Also, as shown in FIG. 12, when the type of the three-dimensional object is “liquid”, the change when the pressing operation is detected differs depending on the pressing speed. When the pushing speed is slow, the object to be pushed is displayed so as to be in contact with the three-dimensional object, ie, the liquid. When the pressing speed is medium, the object to be pressed is displayed on the liquid so that the ripple spreads on the liquid. When the pushed speed is high, the object to be pushed is touched by the liquid, and it is displayed that the liquid splashes. The three-dimensional object displayed in this way is, for example, water in a cup.

また、図13に示すように、3次元オブジェクトの種別が「気体」の場合、押される速度に応じて、押す操作が検出された場合の変化が異なる。押される速度が遅い場合、3次元オブジェクト、すなわち、気体が押す物体によってさえぎられてその周囲を漂うように表示される。押される速度が中程度の場合、気体が押す物体によって散乱されるように表示される。押される速度が速い場合、押す物体の移動方向の後ろ側で乱流により気体に渦が生まれるように表示される。このように表示される3次元オブジェクトは、例えば、煙である。   Also, as shown in FIG. 13, when the type of the three-dimensional object is “gas”, the change when the pressing operation is detected differs depending on the pressing speed. When the pushed speed is slow, a three-dimensional object, i.e., a gas is interrupted by the pushed object and is displayed to drift around it. When the pressing speed is medium, it is displayed that the gas is scattered by the pressing object. When the pushing speed is high, the vortex is generated in the gas behind the pushing object in the moving direction. The three-dimensional object displayed in this way is, for example, smoke.

また、図14に示すように、3次元オブジェクトの種別が「集合体」の場合、集合体の要素の結合状況に応じて、押す操作が検出された場合の変化が異なる。集合体の要素の結合がない場合、3次元オブジェクトは、押された箇所がへこんで集合体としての全体形状が変化するように表示される。このように表示される3次元オブジェクトは、例えば、砂、砂糖である。   As shown in FIG. 14, when the type of the three-dimensional object is “aggregate”, the change when the pressing operation is detected differs depending on the coupling state of the elements of the aggregate. When there is no connection of the elements of the aggregate, the three-dimensional object is displayed such that the pressed portion is recessed and the overall shape of the aggregate changes. The three-dimensional object displayed in this way is, for example, sand or sugar.

集合体の要素の結合がある場合、3次元オブジェクトは、押された箇所がへこんで集合体としての全体形状が変化するように表示される。さらに、押された箇所以外の要素が、押された箇所の要素に引っ張られて移動するように表示される。このように表示される3次元オブジェクトは、例えば、鎖である。   When there is a combination of the elements of the aggregate, the three-dimensional object is displayed such that the pressed portion is recessed and the overall shape of the aggregate changes. Further, an element other than the pressed part is displayed so as to be moved by being pulled by the element at the pressed part. The three-dimensional object displayed in this way is, for example, a chain.

集合体の要素の結合はないが押す物体との間に引力または斥力が働く場合、3次元オブジェクトは、押す物体と接しなくても移動するように表示される。押す物体との間に引力が働く場合、3次元オブジェクトは、押す物体と接しなくても、押す物体と所定距離以内に入ると押す物体に引き寄せられる。また、押す物体との間に斥力が働く場合、3次元オブジェクトは、押す物体と接しなくても、押す物体と所定距離以内に入ると押す物体から遠ざかる。このように表示される3次元オブジェクトと押す物体の組み合わせは、例えば、鉄粉と磁石の組み合わせである。   When there is no combination of the elements of the aggregate, but an attractive force or a repulsive force is applied to the pushing object, the three-dimensional object is displayed so as to move even if it does not contact the pushing object. When an attractive force acts between the pressed object and the pressed object, the three-dimensional object is attracted to the pressed object when it is within a predetermined distance from the pressed object without contacting the pressed object. In addition, when a repulsive force acts between the pressed object and the pressed object, the three-dimensional object moves away from the pressed object when it is within a predetermined distance from the pressed object without contacting the pressed object. The combination of the displayed three-dimensional object and the pressed object is, for example, a combination of iron powder and a magnet.

このように、オブジェクトデータ24bに格納された情報と作用データ24cに格納された情報とに基づいて3次元オブジェクトを変化させることにより、押す操作に応じて、3次元オブジェクトを多様に変化させることができる。オブジェクトデータ24bおよび作用データ24cに格納される情報は、上記の例に限定されず、用途等に応じて適宜変更してよい。例えば、押す物体の種別および大きさや押す物体と3次元オブジェクトの接触面積の大きさに応じて、3次元オブジェクトの変化の仕方が切り替わるように設定してもよい。   As described above, by changing the three-dimensional object based on the information stored in the object data 24b and the information stored in the action data 24c, the three-dimensional object can be variously changed according to the pressing operation. it can. The information stored in the object data 24b and the action data 24c is not limited to the above example, and may be changed as appropriate according to the application. For example, the method of changing the three-dimensional object may be set according to the type and size of the pressed object and the size of the contact area between the pressed object and the three-dimensional object.

次に、図15および図16を参照しながら、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明する。以下の説明では、表示装置1を装着した利用者が見る空間を、表示空間と呼ぶことがある。表示装置1は、利用者の右目および左目にそれぞれの目に対応する画像を提供することにより、表示空間内に現実の物体および3次元オブジェクトを3次元的(立体的)に表示することができる。表示装置1は、仮想空間データ24dに基づいて再現した仮想空間と、撮影部40および42によって撮影される現実の空間とを所定の規則に基づいて対応付け、これらの空間が重なった空間を表示空間として表示する。   Next, detection of an operation of pushing a three-dimensional object and change of the three-dimensional object according to the detected operation will be described with reference to FIGS. 15 and 16. In the following description, a space viewed by a user wearing the display device 1 may be referred to as a display space. The display device 1 can display an actual object and a three-dimensional object three-dimensionally (three-dimensionally) in the display space by providing images corresponding to the eyes of the user's right eye and left eye. . The display device 1 associates the virtual space reproduced based on the virtual space data 24d with the actual space photographed by the photographing units 40 and 42 based on a predetermined rule, and displays a space in which these spaces overlap. Display as space.

図15および図16は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明するための図である。図15に示すステップS11では、表示装置1は、表示空間50中に、3次元オブジェクトOB1を立体的に表示している。3次元オブジェクトOB1は、例えば、ボールを模したオブジェクトである。また、ステップS11では、3次元オブジェクトOB1を支持する底面B1が表示されている。   15 and 16 are diagrams for explaining detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation. In step S11 illustrated in FIG. 15, the display device 1 displays the three-dimensional object OB1 in a three-dimensional manner in the display space 50. The three-dimensional object OB1 is an object that imitates a ball, for example. In step S11, a bottom surface B1 that supports the three-dimensional object OB1 is displayed.

ステップS12では、利用者が指F1を3次元オブジェクトOB1と接触する位置に置き、そのまま静止させている。表示装置1は、表示空間内で現実の物体が検出され、かつ、その物体が3次元オブジェクトOB1と接触する状態が所定時間以上継続した場合、3次元オブジェクトOB1が操作対象として選択されたと判定する。そして、表示装置1は、3次元オブジェクトOB1の表示態様を変更する等して、3次元オブジェクトOB1が操作対象として選択されたことを利用者に通知する。   In step S12, the user places the finger F1 in a position in contact with the three-dimensional object OB1 and keeps it still. The display device 1 determines that the three-dimensional object OB1 is selected as the operation target when a real object is detected in the display space and the state where the object is in contact with the three-dimensional object OB1 continues for a predetermined time or longer. . Then, the display device 1 notifies the user that the three-dimensional object OB1 has been selected as an operation target, for example, by changing the display mode of the three-dimensional object OB1.

物体が3次元オブジェクトOB1と接触しているかの判定は、現実の空間における物体の位置と、3次元オブジェクトOB1の形状、姿勢、仮想空間における位置等に基づいて行われる。現実の空間での位置と仮想空間における位置との比較は、一方の空間の位置を上記の所定の規則に基づいて他方の空間の位置へ換算することによって行ってもよいし、両方の空間の位置を比較用の空間の位置へ換算することによって行ってもよい。現実の物体として指が検出された場合、指のつま先の位置を物体の位置として処理してもよい。人は、何かを操作するときに指のつま先を用いることが多いため、指のつま先の位置を物体の位置として処理することにより、より自然な操作感を利用者に提供することができる。   Whether the object is in contact with the three-dimensional object OB1 is determined based on the position of the object in the real space, the shape and orientation of the three-dimensional object OB1, the position in the virtual space, and the like. The comparison between the position in the real space and the position in the virtual space may be performed by converting the position in one space into the position in the other space based on the above-mentioned predetermined rule. You may perform by converting a position into the position of the space for a comparison. When a finger is detected as an actual object, the position of the finger toe may be processed as the position of the object. Since a person often uses a finger toe when operating something, by processing the position of the finger toe as the position of an object, a more natural operation feeling can be provided to the user.

また、操作対象として選択されたことの通知は、例えば、3次元オブジェクトOB1の全体の色を変更することや、3次元オブジェクトOB1の表面のうち、物体と接触している位置の近傍の色を変更することによって実現される。表示装置1は、このような視覚的な通知に代えて、あるいは、このような視覚的な通知に加えて、音や振動による通知を行ってもよい。   The notification of selection as the operation target may be, for example, changing the overall color of the three-dimensional object OB1, or changing the color near the position in contact with the object on the surface of the three-dimensional object OB1. Realized by changing. The display device 1 may perform notification by sound or vibration instead of such visual notification or in addition to such visual notification.

このように、表示装置1は、指等の現実の物体が3次元オブジェクトOB1と接触する状態が所定時間以上継続して検出された場合に、3次元オブジェクトOB1が操作対象として選択されたと判定する。接触状態が所定時間以上継続して検出されることを条件として付加することにより、例えば、他の3次元オブジェクトを操作するために指を移動させる過程で、意図しない3次元オブジェクトが操作対象として選択される可能性を低くすることができる。   As described above, the display device 1 determines that the three-dimensional object OB1 is selected as the operation target when a state where a real object such as a finger is in contact with the three-dimensional object OB1 is continuously detected for a predetermined time or longer. . By adding the condition that the contact state is continuously detected for a predetermined time or longer, for example, in the process of moving a finger to operate another three-dimensional object, an unintended three-dimensional object is selected as an operation target. The possibility of being made can be lowered.

3次元オブジェクトOB1が操作対象として選択された後、ステップS13に示すように、利用者が、3次元オブジェクトOB1を押すように、指F1を3次元オブジェクトOB1の内側に侵入させたものとする。表示装置1は、操作対象として選択された3次元オブジェクト内に物体を侵入させる操作が検出された場合、操作に応じて3次元オブジェクトを変化させる。3次元オブジェクトをどのように変化させるかは、オブジェクトデータ24bにおいて定義されている3次元オブジェクトの種別と、作用データ24cにおいてその種別と対応付けて定義されている変化のルールとによって決定される。   After the three-dimensional object OB1 is selected as the operation target, it is assumed that the user has intruded the finger F1 inside the three-dimensional object OB1 so as to press the three-dimensional object OB1, as shown in step S13. The display device 1 changes the three-dimensional object according to the operation when an operation for intruding the object into the three-dimensional object selected as the operation target is detected. How to change the three-dimensional object is determined by the type of the three-dimensional object defined in the object data 24b and the change rule defined in association with the type in the action data 24c.

例えば、オブジェクトデータ24bにおいて3次元オブジェクトOB1が弾性体であると定義され、作用データ24cにおいて弾性体は押された場合に押された量に応じて押された方向に変形することが定義されていたものとする。この場合、表示装置1は、ステップS14に示すように、指F1が侵入した部分が押されて凹んだように3次元オブジェクトOB1を変化させる。   For example, in the object data 24b, the three-dimensional object OB1 is defined as an elastic body, and in the action data 24c, it is defined that the elastic body is deformed in the pressed direction according to the amount of pressing when pressed. Shall be. In this case, as shown in step S14, the display device 1 changes the three-dimensional object OB1 so that the portion into which the finger F1 has entered is pressed and recessed.

また、オブジェクトデータ24bにおいて3次元オブジェクトOB1が剛体であると定義され、作用データ24cにおいて剛体は押された場合に押された量に応じて押された方向に移動することが定義されていたものとする。この場合、表示装置1は、図16のステップS15に示すように、指F1に押されたように3次元オブジェクトOB1を指F1の進行方向へ移動させる。図16のステップS15では、3次元オブジェクトOB1は、底面B1に支持されているため、剛体によって印加される力の底面B1と水平方向の成分に従って移動している。   Further, the object data 24b defines the three-dimensional object OB1 as a rigid body, and the action data 24c defines that the rigid body moves in the pressed direction according to the amount of pressing when pressed. And In this case, as shown in step S15 in FIG. 16, the display device 1 moves the three-dimensional object OB1 in the traveling direction of the finger F1 as if pressed by the finger F1. In step S15 of FIG. 16, since the three-dimensional object OB1 is supported by the bottom surface B1, it moves according to the horizontal component of the bottom surface B1 of the force applied by the rigid body.

このように、3次元オブジェクトを押す操作が検出された場合に、オブジェクトデータ24bおよび作用データ24cに基づいて3次元オブジェクトOB1を変化させることにより、3次元オブジェクトを操作に応じて様々に変化させることができる。押すという操作は、現実の世界の様々な場面で利用されている操作であり、3次元オブジェクトOB1を押す操作を検出して対応する処理を実行することにより、直感的で利便性の高い操作性を実現することができる。   As described above, when an operation of pushing the three-dimensional object is detected, the three-dimensional object is changed variously according to the operation by changing the three-dimensional object OB1 based on the object data 24b and the action data 24c. Can do. The operation of pressing is an operation that is used in various scenes in the real world. By detecting the operation of pressing the three-dimensional object OB1 and executing the corresponding process, the operation is intuitive and highly convenient. Can be realized.

3次元オブジェクトを操作するために用いられる物体は、指に限定されず、手、足、棒、器具等であってもよい。押す操作に応じて3次元オブジェクトを変化させる態様は、現実の物理法則に則していてもよいし、現実ではあり得ないものであってもよい。   An object used for operating a three-dimensional object is not limited to a finger, and may be a hand, a foot, a stick, an instrument, or the like. The mode of changing the three-dimensional object in accordance with the pressing operation may be in accordance with actual physical laws or may not be in reality.

表示装置1は、3次元オブジェクトに対する操作を検出する空間を操作可能範囲51に限定してもよい。操作可能範囲51は、例えば、表示装置1を装着している利用者の手が届く範囲である。このように、3次元オブジェクトに対する操作を検出する空間を限定することにより、表示装置1が操作を検出するために実行する演算処理の負荷を軽減することができる。   The display device 1 may limit a space for detecting an operation on the three-dimensional object to the operable range 51. The operable range 51 is, for example, a range that can be reached by a user wearing the display device 1. In this way, by limiting the space for detecting the operation on the three-dimensional object, it is possible to reduce the load of the arithmetic processing executed by the display device 1 to detect the operation.

次に、図17および図18を参照しながら、3次元オブジェクトを押す操作に関して表示装置1が実行する処理手順の第1の例について説明する。図17は、3次元オブジェクトの接触検出処理の処理手順を示すフローチャートである。図17に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。   Next, a first example of a processing procedure executed by the display device 1 regarding an operation of pressing a three-dimensional object will be described with reference to FIGS. 17 and 18. FIG. 17 is a flowchart illustrating a processing procedure of contact detection processing of a three-dimensional object. The processing procedure illustrated in FIG. 17 is realized by the control unit 22 executing the control program 24a.

図17に示すように、制御部22は、まず、ステップSA01として、3次元オブジェクトを含む仮想空間の画像と現実の空間の画像とを合成して表示する。   As shown in FIG. 17, first, the control unit 22 synthesizes and displays a virtual space image including a three-dimensional object and a real space image in step SA01.

続いて、制御部22は、ステップSA02として、検出部44、すなわち、撮影部40および42によって所定の物体が検出されたかを判定する。所定の物体は、例えば、利用者の指である。所定の物体が検出されない場合(ステップSA02,No)、制御部22は、ステップSA08として、操作終了が検出されたかを判定する。   Subsequently, in step SA02, the control unit 22 determines whether a predetermined object is detected by the detection unit 44, that is, the imaging units 40 and 42. The predetermined object is, for example, a user's finger. When the predetermined object is not detected (step SA02, No), the control unit 22 determines whether the operation end is detected as step SA08.

操作終了は、例えば、操作部13に対する所定の操作が行われた場合に検出される。操作終了が検出された場合(ステップSA08,Yes)、制御部22は、接触検出処理を終了させる。操作終了が検出されない場合(ステップSA08,No)、制御部22は、ステップSA02以降を再実行する。   The operation end is detected, for example, when a predetermined operation is performed on the operation unit 13. When the operation end is detected (step SA08, Yes), the control unit 22 ends the contact detection process. When the operation end is not detected (No at Step SA08), the control unit 22 re-executes Step SA02 and the subsequent steps.

所定の物体が検出された場合(ステップSA02,Yes)、制御部22は、ステップSA03として、所定の物体の種別を判定する。所定の物体の種別は、例えば、撮影部40および42によって撮影された画像中の物体の大きさ、形状、色等に基づいて判定される。続いて、制御部22は、ステップSA04として、所定の物体に接触している3次元オブジェクトを探す。所定の物体に接触している3次元オブジェクトがない場合(ステップSA05,No)、制御部22は、ステップSA08へ進む。   When a predetermined object is detected (step SA02, Yes), the control unit 22 determines the type of the predetermined object as step SA03. The type of the predetermined object is determined based on, for example, the size, shape, color, and the like of the object in the images photographed by the photographing units 40 and 42. Subsequently, in step SA04, the control unit 22 searches for a three-dimensional object that is in contact with a predetermined object. If there is no three-dimensional object in contact with the predetermined object (step SA05, No), the control unit 22 proceeds to step SA08.

所定の物体に接触している3次元オブジェクトがみつかった場合(ステップSA05,Yes)、制御部22は、ステップSA06として、オブジェクトデータ24bに基づいて、所定の物体に接触している3次元オブジェクトの種別を判定する。そして、制御部22は、ステップSA07として、後述する操作検出処理を実行する。その後、制御部22は、ステップSA08へ進む。   When a three-dimensional object in contact with the predetermined object is found (step SA05, Yes), the control unit 22 determines, as step SA06, the three-dimensional object in contact with the predetermined object based on the object data 24b. Determine the type. And the control part 22 performs the operation detection process mentioned later as step SA07. Thereafter, the control unit 22 proceeds to Step SA08.

図18は、操作検出処理の処理手順を示すフローチャートである。図18に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。   FIG. 18 is a flowchart illustrating a procedure of the operation detection process. The processing procedure shown in FIG. 18 is realized by the control unit 22 executing the control program 24a.

図18に示すように、制御部22は、まず、ステップSB01として、所定の物体と3次元オブジェクトの接触時間を取得する。そして、制御部22は、ステップSB02として、所定の物体が3次元オブジェクトの内部に移動したかを判定する。所定の物体が3次元オブジェクトの内部に移動していない場合(ステップSB02,No)、制御部22は、ステップSB01以降を再実行する。   As shown in FIG. 18, the control unit 22 first acquires the contact time between the predetermined object and the three-dimensional object as step SB01. Then, the control unit 22 determines whether the predetermined object has moved into the three-dimensional object as Step SB02. When the predetermined object has not moved inside the three-dimensional object (step SB02, No), the control unit 22 re-executes step SB01 and the subsequent steps.

所定の物体が3次元オブジェクトの内部に移動している場合(ステップSB02,Yes)、制御部22は、ステップSB03として、接触時間が所定時間以上であるかを判定する。接触時間が所定時間よりも短い場合(ステップSB03,No)、その3次元オブジェクトは操作対象ではないと判断されるため、制御部22は、操作検出処理を終了させる。   When the predetermined object has moved to the inside of the three-dimensional object (step SB02, Yes), the control unit 22 determines whether the contact time is a predetermined time or more as step SB03. When the contact time is shorter than the predetermined time (step SB03, No), it is determined that the three-dimensional object is not an operation target, and thus the control unit 22 ends the operation detection process.

接触時間が所定時間以上の場合(ステップSB03,Yes)、制御部22は、ステップSB04として、所定の物体の速度を算出する。そして、制御部22は、ステップSB05として、所定の物体の種別、位置および速度と、3次元オブジェクトの種別等に基づいて3次元オブジェクトを変化させる。具体的な変化のさせ方は、作用データ24cに従って決定される。   When the contact time is equal to or longer than the predetermined time (step SB03, Yes), the control unit 22 calculates the speed of the predetermined object as step SB04. In step SB05, the control unit 22 changes the three-dimensional object based on the type, position, and speed of the predetermined object, the type of the three-dimensional object, and the like. A specific method of change is determined according to the action data 24c.

続いて、制御部22は、ステップSB06として、所定の物体が3次元オブジェクトの外部に移動したかを判定する。所定の物体が3次元オブジェクトの外部に移動していない場合、すなわち、押す操作が継続している場合(ステップSB06,No)、制御部22は、ステップSB04以降を再実行する。   Subsequently, in Step SB06, the control unit 22 determines whether the predetermined object has moved outside the three-dimensional object. When the predetermined object has not moved to the outside of the three-dimensional object, that is, when the pressing operation is continued (No in Step SB06), the control unit 22 re-executes Step SB04 and the subsequent steps.

所定の物体が3次元オブジェクトの外部に移動した場合、すなわち、3次元オブジェクトが解放された場合(ステップSB06,Yes)、制御部22は、ステップSB07として、3次元オブジェクトの変化が継続するかを判定する。例えば、作用データ24cにおいて解放後も振動が所定時間継続することが定義されている場合に、3次元オブジェクトの変化が継続すると判定される。   When the predetermined object moves to the outside of the three-dimensional object, that is, when the three-dimensional object is released (step SB06, Yes), the control unit 22 determines whether the change of the three-dimensional object continues as step SB07. judge. For example, when the action data 24c defines that the vibration continues for a predetermined time after release, it is determined that the change of the three-dimensional object continues.

3次元オブジェクトの変化が継続する場合(ステップSB07,Yes)、制御部22は、ステップSB08として、3次元オブジェクトを変化させ、その後、ステップSB07以降を再実行する。3次元オブジェクトの変化が継続しない場合(ステップSB07,No)、制御部22は、操作検出処理を終了させる。   When the change of the three-dimensional object continues (step SB07, Yes), the control unit 22 changes the three-dimensional object as step SB08, and then re-executes step SB07 and the subsequent steps. When the change of the three-dimensional object is not continued (step SB07, No), the control unit 22 ends the operation detection process.

上述してきたように、第1の例では、押す操作に応じて3次元オブジェクトを多様に変化させ、それにより、利用者に対して利便性の高い操作方法を提供することができる。   As described above, in the first example, the three-dimensional object is variously changed according to the pressing operation, thereby providing a convenient operation method for the user.

3次元オブジェクトを押す操作に関する処理手順の第2の例について説明する。第2の例における接触検出処理は、第1の例における接触検出処理と同一である。そこで、第2の例については、第1の例と重複する説明は省略し、主として、操作検出処理について説明する。   A second example of a processing procedure related to an operation of pressing a three-dimensional object will be described. The contact detection process in the second example is the same as the contact detection process in the first example. Therefore, in the second example, the description overlapping the first example is omitted, and the operation detection process will be mainly described.

まず、図19を参照しながら、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明する。図19は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明するための図である。図19に示すステップS21では、利用者が指F1を3次元オブジェクトOB1と接触させ、ステップS22では、利用者が指F1を3次元オブジェクトOB1の内側に侵入させている。   First, detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation will be described with reference to FIG. FIG. 19 is a diagram for describing detection of an operation of pressing a three-dimensional object and changes in the three-dimensional object according to the detected operation. In step S21 shown in FIG. 19, the user contacts the finger F1 with the three-dimensional object OB1, and in step S22, the user causes the finger F1 to enter the inside of the three-dimensional object OB1.

表示装置1は、表示空間内で現実の物体が検出され、かつ、その物体が3次元オブジェクトOB1と接触した後に3次元オブジェクトOB1の内部へ移動する状態が所定時間以上継続した場合、3次元オブジェクトOB1が操作対象として選択されたと判定する。そして、表示装置1は、3次元オブジェクトOB1の表示態様を変更する等して、3次元オブジェクトOB1が操作対象として選択されたことを利用者に通知する。さらに、表示装置1は、ステップS23に示すように、3次元オブジェクトOB1を、あたかもステップS21の段階で既に押す操作の対象として選択されていたかのように、接触検出以降の指F1による操作に応じて変化させる。   When a real object is detected in the display space and the state in which the object moves to the inside of the three-dimensional object OB1 after the object contacts the three-dimensional object OB1 continues for a predetermined time or longer, the display device 1 It is determined that OB1 has been selected as the operation target. Then, the display device 1 notifies the user that the three-dimensional object OB1 has been selected as an operation target, for example, by changing the display mode of the three-dimensional object OB1. Further, as shown in step S23, the display device 1 responds to the operation with the finger F1 after the contact detection as if the three-dimensional object OB1 was already selected as an operation target to be pressed in the step S21. Change.

このように、物体と3次元オブジェクトの接触を検出した後は、物体がその場に留まらなくても押す操作を検出可能にすることにより、利用者は、3次元オブジェクトを押す操作を迅速に開始することができる。また、接触後に物体が3次元オブジェクトOB1の内部へ移動する状態が所定時間以上継続することを条件として付加することにより、例えば、他の3次元オブジェクトを操作するために指を移動させる過程で、意図しない3次元オブジェクトが操作対象として選択される可能性を低くすることができる。   As described above, after detecting the contact between the object and the three-dimensional object, the user can quickly start the operation of pressing the three-dimensional object by making it possible to detect the pressing operation even if the object does not stay on the spot. can do. In addition, by adding the condition that the state in which the object moves to the inside of the three-dimensional object OB1 after contact continues for a predetermined time or longer, for example, in the process of moving a finger to operate another three-dimensional object, The possibility that an unintended three-dimensional object is selected as an operation target can be reduced.

次に、図20を参照しながら、第2の例における操作検出処理の処理手順について説明する。図20は、操作検出処理の処理手順を示すフローチャートである。図20に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。接触検出処理の処理手順は、図17に示した手順と同様である。   Next, the procedure of the operation detection process in the second example will be described with reference to FIG. FIG. 20 is a flowchart illustrating the processing procedure of the operation detection process. The processing procedure shown in FIG. 20 is realized by the control unit 22 executing the control program 24a. The processing procedure of the contact detection processing is the same as the procedure shown in FIG.

図20に示すように、制御部22は、まず、ステップSC01として、所定の物体が3次元オブジェクトの内部に移動しているかを判定する。所定の物体が3次元オブジェクトの内部に移動していない場合(ステップSC01,No)、その3次元オブジェクトは操作対象ではないと判断されるため、制御部22は、操作検出処理を終了させる。   As shown in FIG. 20, the control unit 22 first determines whether a predetermined object has moved inside the three-dimensional object as step SC01. If the predetermined object has not moved to the inside of the three-dimensional object (No at Step SC01), since the three-dimensional object is determined not to be an operation target, the control unit 22 ends the operation detection process.

所定の物体が3次元オブジェクトの内部に移動している場合(ステップSC01,Yes)、制御部22は、ステップSC02として、接触検出からの経過時間が所定時間以上であるかを判定する。経過時間が所定時間よりも短い場合(ステップSC02,No)、制御部22は、ステップSC01以降を再実行する。   When the predetermined object has moved to the inside of the three-dimensional object (step SC01, Yes), the control unit 22 determines whether the elapsed time from the contact detection is a predetermined time or more as step SC02. When the elapsed time is shorter than the predetermined time (No at Step SC02), the control unit 22 re-executes Step SC01 and the subsequent steps.

接触時間が所定時間以上の場合(ステップSC02,Yes)、制御部22は、ステップSC03として、所定の物体の速度を算出する。そして、制御部22は、ステップSC04として、所定の物体の種別、位置および速度と、3次元オブジェクトの種別等に基づいて3次元オブジェクトを変化させる。具体的な変化のさせ方は、作用データ24cに従って決定される。   When the contact time is equal to or longer than the predetermined time (step SC02, Yes), the control unit 22 calculates the speed of the predetermined object as step SC03. In step SC04, the control unit 22 changes the three-dimensional object based on the type, position, and speed of the predetermined object and the type of the three-dimensional object. A specific method of change is determined according to the action data 24c.

続いて、制御部22は、ステップSC05として、所定の物体が3次元オブジェクトの外部に移動したかを判定する。所定の物体が3次元オブジェクトの外部に移動していない場合、すなわち、押す操作が継続している場合(ステップSC05,No)、制御部22は、ステップSC03以降を再実行する。   Subsequently, in step SC05, the control unit 22 determines whether the predetermined object has moved outside the three-dimensional object. When the predetermined object has not moved outside the three-dimensional object, that is, when the pressing operation is continued (No at Step SC05), the control unit 22 re-executes Step SC03 and the subsequent steps.

所定の物体が3次元オブジェクトの外部に移動した場合、すなわち、3次元オブジェクトが解放された場合(ステップSC05,Yes)、制御部22は、ステップSC06として、3次元オブジェクトの変化が継続するかを判定する。例えば、作用データ24cにおいて解放後も振動が所定時間継続することが定義されている場合に、3次元オブジェクトの変化が継続すると判定される。   When the predetermined object moves outside the three-dimensional object, that is, when the three-dimensional object is released (step SC05, Yes), the control unit 22 determines whether the change of the three-dimensional object continues as step SC06. judge. For example, when the action data 24c defines that the vibration continues for a predetermined time after release, it is determined that the change of the three-dimensional object continues.

3次元オブジェクトの変化が継続する場合(ステップSC06,Yes)、制御部22は、ステップSC07として、3次元オブジェクトを変化させ、その後、ステップSC06以降を再実行する。3次元オブジェクトの変化が継続しない場合(ステップSC06,No)、制御部22は、操作検出処理を終了させる。   When the change of the three-dimensional object continues (step SC06, Yes), the control unit 22 changes the three-dimensional object as step SC07, and then re-executes step SC06 and subsequent steps. When the change of the three-dimensional object does not continue (No at Step SC06), the control unit 22 ends the operation detection process.

上述してきたように、第2の例では、指等の物体が3次元オブジェクトに接触する状態が所定時間以上継続しなくても押す操作が認識されることとしたので、利用者は、3次元オブジェクトを押す操作を迅速に開始することができる。   As described above, in the second example, since the pressing operation is recognized even when the object such as the finger is in contact with the three-dimensional object does not continue for a predetermined time or longer, the user can recognize the three-dimensional object. The operation of pushing the object can be started quickly.

3次元オブジェクトを押す操作に関する処理手順の第3の例について説明する。第3の例における接触検出処理は、第1の例における接触検出処理と同一である。そこで、第3の例では、第1の例と重複する説明は省略し、主として、操作検出処理について説明する。   A third example of a processing procedure related to an operation of pressing a three-dimensional object will be described. The contact detection process in the third example is the same as the contact detection process in the first example. Therefore, in the third example, the description overlapping with the first example is omitted, and the operation detection process is mainly described.

まず、図21および図22を参照しながら、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明する。図21および図22は、3次元オブジェクトを押す操作の検出と、検出された操作に応じた3次元オブジェクトの変化について説明するための図である。図21に示すステップS31では、表示空間中に、3次元オブジェクトOB1が立体的に表示されている。また、利用者は、指F1を3次元オブジェクトOB1と接触させている。   First, detection of an operation of pushing a three-dimensional object and change of the three-dimensional object according to the detected operation will be described with reference to FIGS. 21 and 22. 21 and 22 are diagrams for explaining detection of an operation of pushing a three-dimensional object and a change of the three-dimensional object according to the detected operation. In step S31 shown in FIG. 21, the three-dimensional object OB1 is displayed three-dimensionally in the display space. In addition, the user is bringing the finger F1 into contact with the three-dimensional object OB1.

ここで、利用者が指F1を3次元オブジェクトOB1の内側に侵入させたものとする。表示装置1は、3次元オブジェクトOB1に接触した物体が3次元オブジェクトOB1の内側に移動したことを検出すると、ステップS32に示すように、その時点から、3次元オブジェクトOB1を指F1による操作に応じて変化させる。図21に示す例では、ステップS32において、3次元オブジェクトOB1は、指F1の移動に合わせて移動を開始している。   Here, it is assumed that the user has caused the finger F1 to enter the inside of the three-dimensional object OB1. When the display device 1 detects that the object in contact with the three-dimensional object OB1 has moved to the inside of the three-dimensional object OB1, as shown in step S32, the display device 1 responds to the operation with the finger F1 from that point in time. Change. In the example shown in FIG. 21, in step S32, the three-dimensional object OB1 starts moving in accordance with the movement of the finger F1.

そして、表示装置1は、ステップS33に示すように、指F1が3次元オブジェクトOB1の内側へ向けて移動することが所定時間以上継続した段階で、3次元オブジェクトOB1を操作対象として確定する。そして、表示装置1は、3次元オブジェクトOB1の表示態様を変更する等して、3次元オブジェクトOB1が操作対象として確定したことを利用者に通知する。その後も、指F1の3次元オブジェクトOB1の内側への移動が検出される間、表示装置1は、3次元オブジェクトOB1を変化させ続ける。   Then, as shown in step S33, the display device 1 determines the three-dimensional object OB1 as an operation target when the finger F1 continues to move inward of the three-dimensional object OB1 for a predetermined time or more. Then, the display device 1 notifies the user that the three-dimensional object OB1 has been determined as an operation target, for example, by changing the display mode of the three-dimensional object OB1. Thereafter, while the movement of the finger F1 to the inside of the three-dimensional object OB1 is detected, the display device 1 continues to change the three-dimensional object OB1.

図22のステップS34に示すように、所定時間が経過する前に指F1の3次元オブジェクトOB1の内側への移動が検出されなくなった場合、表示装置1は、それまでに加えた変化と逆の変化を3次元オブジェクトOB1に加える。その結果、3次元オブジェクトOB1は、ステップS31の段階と同じ位置に同じ状態で表示される。逆の変化を3次元オブジェクトOB1に加える速度は、それまでに3次元オブジェクトOB1に変化が加えられた速度よりも速くてもよい。すなわち、高速に逆再生しているかのように3次元オブジェクトOB1を逆変化させてもよい。   As shown in step S34 of FIG. 22, when the movement of the finger F1 to the inside of the three-dimensional object OB1 is not detected before the predetermined time has elapsed, the display device 1 is opposite to the change made so far. A change is applied to the three-dimensional object OB1. As a result, the three-dimensional object OB1 is displayed in the same state at the same position as in the step S31. The speed at which the reverse change is applied to the three-dimensional object OB1 may be faster than the speed at which the change has been applied to the three-dimensional object OB1 so far. That is, the three-dimensional object OB1 may be reversely changed as if it is reversely played back at high speed.

このように、3次元オブジェクトの内側への物体の侵入が検出された段階から3次元オブジェクトに変化を加え始めることにより、利用者は、3次元オブジェクトが選択されつつあることを選択が確定する前から認識することができる。その結果、利用者は、意図した3次元オブジェクトが選択されたか否かを早期に知ることができる。意図しない3次元オブジェクトが選択された場合、利用者は、所定時間が経過する前に操作を中止することにより、意図せずに選択された3次元オブジェクトを元の状態に戻すことができる。   In this way, by starting to apply changes to the 3D object from the stage where the intrusion of the object inside the 3D object is detected, the user can confirm that the 3D object is being selected before the selection is confirmed. Can be recognized from. As a result, the user can know at an early stage whether or not the intended three-dimensional object has been selected. When an unintended three-dimensional object is selected, the user can return the original three-dimensional object to an original state by canceling the operation before a predetermined time elapses.

指F1の3次元オブジェクトOB1の内側への移動が所定時間以上継続するまでは、変化を加えられている3次元オブジェクトを通常時とも操作対象としての選択が確定した状態とも異なる態様(例えば、半透明)で表示してもよい。このように表示態様を変更することにより、利用者が3次元オブジェクトの状態を判別しやすくなる。   Until the movement of the finger F1 to the inside of the three-dimensional object OB1 continues for a predetermined time or longer, the mode is different from the state in which the selected three-dimensional object is changed as the operation target at both the normal time (for example, half (Transparent) may be displayed. By changing the display mode in this way, the user can easily determine the state of the three-dimensional object.

次に、図23を参照しながら、第3の例における操作検出処理の処理手順について説明する。図23は、操作検出処理の処理手順を示すフローチャートである。図23に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。接触検出処理の処理手順は、図17に示した手順と同様である。   Next, the procedure of the operation detection process in the third example will be described with reference to FIG. FIG. 23 is a flowchart illustrating the processing procedure of the operation detection process. The processing procedure shown in FIG. 23 is realized by the control unit 22 executing the control program 24a. The processing procedure of the contact detection processing is the same as the procedure shown in FIG.

図23に示すように、制御部22は、まず、ステップSD01として、所定の物体が3次元オブジェクトの内部に移動しているかを判定する。所定の物体が3次元オブジェクトの内部に移動していない場合(ステップSD01,No)、その3次元オブジェクトは操作対象ではないと判断されるため、制御部22は、操作検出処理を終了させる。   As shown in FIG. 23, the control unit 22 first determines whether a predetermined object has moved inside the three-dimensional object as step SD01. If the predetermined object has not moved to the inside of the three-dimensional object (step SD01, No), since the three-dimensional object is determined not to be an operation target, the control unit 22 ends the operation detection process.

所定の物体が3次元オブジェクトの内部に移動している場合(ステップSD01,Yes)、制御部22は、ステップSD02として、所定の物体の速度を算出する。そして、制御部22は、ステップSD03として、所定の物体の種別、位置および速度と、3次元オブジェクトの種別等に基づいて3次元オブジェクトを変化させる。具体的な変化のさせ方は、作用データ24cに従って決定される。   When the predetermined object is moving inside the three-dimensional object (step SD01, Yes), the control unit 22 calculates the speed of the predetermined object as step SD02. In step SD03, the control unit 22 changes the three-dimensional object based on the type, position, and speed of the predetermined object, the type of the three-dimensional object, and the like. A specific method of change is determined according to the action data 24c.

続いて、制御部22は、ステップSD04として、接触検出からの経過時間が所定時間以上であるかを判定する。経過時間が所定時間よりも短い場合、すなわち、3次元オブジェクトが押す操作の対象として確定していない場合(ステップSD04,No)、制御部22は、ステップSD05として、所定の物体の3次元オブジェクトの内部方向への移動が継続しているかを判定する。   Subsequently, as step SD04, the control unit 22 determines whether the elapsed time from the contact detection is equal to or longer than a predetermined time. When the elapsed time is shorter than the predetermined time, that is, when the three-dimensional object is not fixed as the target of the pressing operation (No at Step SD04), the control unit 22 determines the three-dimensional object of the predetermined object as Step SD05. It is determined whether the movement in the internal direction continues.

3次元オブジェクトの内部方向への移動が継続している場合(ステップSD05,Yes)、制御部22は、ステップSD02以降を再実行する。3次元オブジェクトの内部方向への移動が継続していない場合(ステップSD05,No)、制御部22は、ステップSD06として、3次元オブジェクトを逆変化させて元の状態に戻す。そして、制御部22は、操作検出処理を終了させる。   When the movement of the three-dimensional object in the internal direction continues (step SD05, Yes), the control unit 22 re-executes step SD02 and subsequent steps. When the movement of the three-dimensional object in the internal direction is not continued (No at Step SD05), the control unit 22 reversely changes the three-dimensional object and returns it to the original state as Step SD06. Then, the control unit 22 ends the operation detection process.

接触検出からの経過時間が所定時間以上である場合(ステップSD04,Yes)、制御部22は、ステップSD07として、所定の物体が3次元オブジェクトの外部に移動したかを判定する。所定の物体が3次元オブジェクトの外部に移動していない場合、すなわち、押す操作が継続している場合(ステップSD07,No)、制御部22は、ステップSD02以降を再実行する。   When the elapsed time from the contact detection is equal to or longer than the predetermined time (step SD04, Yes), the control unit 22 determines whether the predetermined object has moved outside the three-dimensional object as step SD07. When the predetermined object has not moved outside the three-dimensional object, that is, when the pressing operation is continued (No at Step SD07), the control unit 22 re-executes Step SD02 and the subsequent steps.

所定の物体が3次元オブジェクトの外部に移動した場合、すなわち、3次元オブジェクトが解放された場合(ステップSD07,Yes)、制御部22は、ステップSD08として、3次元オブジェクトの変化が継続するかを判定する。例えば、作用データ24cにおいて解放後も振動が所定時間継続することが定義されている場合に、3次元オブジェクトの変化が継続すると判定される。   When the predetermined object moves outside the three-dimensional object, that is, when the three-dimensional object is released (step SD07, Yes), the control unit 22 determines whether the change of the three-dimensional object continues as step SD08. judge. For example, when the action data 24c defines that the vibration continues for a predetermined time after release, it is determined that the change of the three-dimensional object continues.

3次元オブジェクトの変化が継続する場合(ステップSD08,Yes)、制御部22は、ステップSD09として、3次元オブジェクトを変化させ、その後、ステップSD08以降を再実行する。3次元オブジェクトの変化が継続しない場合(ステップSD08,No)、制御部22は、操作検出処理を終了させる。   When the change of the three-dimensional object continues (step SD08, Yes), the control unit 22 changes the three-dimensional object as step SD09, and then re-executes step SD08 and subsequent steps. When the change of the three-dimensional object does not continue (No at step SD08), the control unit 22 ends the operation detection process.

上述してきたように、第3の例では、押す操作が検出された時点から、操作に応じて3次元オブジェクトを変化させることとしたので、利用者が、押す操作の対象となっている3次元オブジェクトを認識しやすい。   As described above, in the third example, since the three-dimensional object is changed in accordance with the operation from the time when the pressing operation is detected, the three-dimensional object that is the target of the pressing operation by the user. Easy to recognize objects.

3次元オブジェクトに関する操作として、3次元オブジェクトを押す操作について説明したが、表示装置1が3次元オブジェクトに関して検出する操作は、押す操作に限定されない。表示装置1は、利用者が3次元オブジェクトを摘んで行う操作も検出することができる。以下に3次元オブジェクトを摘んで行う操作について説明する。   Although the operation of pushing the 3D object has been described as the operation related to the 3D object, the operation detected by the display device 1 concerning the 3D object is not limited to the pushing operation. The display device 1 can also detect an operation performed by a user picking a three-dimensional object. Hereinafter, an operation performed by picking a three-dimensional object will be described.

図24を参照しながら、3次元オブジェクトを摘んで行う操作の検出について説明する。図24は、3次元オブジェクトを摘んで行う操作の検出について説明するための図である。図24に示すステップS41では、表示空間50中に、3次元オブジェクトOB1が立体的に表示されている。   With reference to FIG. 24, detection of an operation performed by picking a three-dimensional object will be described. FIG. 24 is a diagram for describing detection of an operation performed by picking up a three-dimensional object. In step S41 shown in FIG. 24, the three-dimensional object OB1 is displayed three-dimensionally in the display space 50.

ここで、利用者が3次元オブジェクトOB1を摘んで何らかの操作を行いたいものとする。3次元オブジェクトOB1を摘んで何らかの操作を行うには、まず、操作の対象として3次元オブジェクトOB1を選択する必要がある。3次元オブジェクトOB1を選択するために、利用者は、ステップS42に示すように、指F1と指F2の間に3次元オブジェクトOB1が位置するように指F1および指F2を移動させ、その状態を所定時間以上維持する。   Here, it is assumed that the user wants to perform some operation by picking up the three-dimensional object OB1. In order to pick up the three-dimensional object OB1 and perform some operation, it is first necessary to select the three-dimensional object OB1 as an operation target. In order to select the three-dimensional object OB1, the user moves the finger F1 and the finger F2 so that the three-dimensional object OB1 is positioned between the finger F1 and the finger F2, as shown in step S42, and changes its state. Maintain for a predetermined time or longer.

表示装置1は、表示空間内で2つの現実の物体が検出され、かつ、それらの2つの物体の間に3次元オブジェクトOB1が位置する状態が所定時間以上継続した場合、3次元オブジェクトOB1が選択されたと判定し、3次元オブジェクトOB1を選択状態にする。そして、表示装置1は、3次元オブジェクトOB1の表示態様を変更する等して、3次元オブジェクトOB1が選択状態になったことを利用者に通知する。   The display device 1 selects the three-dimensional object OB1 when two real objects are detected in the display space and the state where the three-dimensional object OB1 is located between the two objects continues for a predetermined time or longer. It is determined that the three-dimensional object OB1 is selected. Then, the display device 1 notifies the user that the three-dimensional object OB1 has been selected, for example, by changing the display mode of the three-dimensional object OB1.

2つの物体の間に3次元オブジェクトOB1が位置しているかの判定は、現実の空間における2つの物体の位置と、3次元オブジェクトOB1の形状、姿勢、仮想空間における位置等に基づいて行われる。現実の空間での位置と仮想空間における位置との比較は、一方の空間の位置を上記の所定の規則に基づいて他方の空間の位置へ換算することによって行ってもよいし、両方の空間の位置を比較用の空間の位置へ換算することによって行ってもよい。現実の物体として指が検出された場合、指のつま先の位置を物体の位置として処理してもよい。   Whether the three-dimensional object OB1 is located between the two objects is determined based on the positions of the two objects in the real space, the shape and orientation of the three-dimensional object OB1, the position in the virtual space, and the like. The comparison between the position in the real space and the position in the virtual space may be performed by converting the position in one space into the position in the other space based on the above-mentioned predetermined rule. You may perform by converting a position into the position of the space for a comparison. When a finger is detected as an actual object, the position of the finger toe may be processed as the position of the object.

このように、表示装置1は、指等の現実の物体の間に3次元オブジェクトOB1が位置する状態が所定時間以上継続して検出された場合に、3次元オブジェクトOB1が選択されたと判定する。指の間に3次元オブジェクトOB1を挟むように指を配置するという操作は、人間が現実の空間の何かを選択するために何かを摘む操作と類似している。そのため、かかる操作は、3次元オブジェクトを選択するための操作として、直感的で分かりやすい。また、状態が所定時間以上継続して検出されることを条件として付加することにより、例えば、他の3次元オブジェクトを選択するために指を移動させる過程で、意図しない3次元オブジェクトが選択される可能性を低くすることができる。   As described above, the display device 1 determines that the three-dimensional object OB1 is selected when the state in which the three-dimensional object OB1 is located between actual objects such as fingers is continuously detected for a predetermined time or more. The operation of placing a finger so that the three-dimensional object OB1 is sandwiched between the fingers is similar to the operation of a person picking something to select something in the real space. Therefore, such an operation is intuitive and easy to understand as an operation for selecting a three-dimensional object. Further, by adding a condition that the state is continuously detected for a predetermined time or longer, for example, an unintended three-dimensional object is selected in the process of moving a finger to select another three-dimensional object. The possibility can be reduced.

表示装置1は、3次元オブジェクトOB1が選択状態になったと判定した後、指F1および指F2の動きに応じて、3次元オブジェクトOB1に移動、変形、消失、置換等の変化を加える。   After determining that the three-dimensional object OB1 is in the selected state, the display device 1 adds changes such as movement, deformation, disappearance, and replacement to the three-dimensional object OB1 according to the movement of the finger F1 and the finger F2.

次に、図25および図26を参照しながら、3次元オブジェクトを摘んで行う操作に関して表示装置1が実行する処理手順の第1の例について説明する。図25は、3次元オブジェクトの選択検出処理の処理手順を示すフローチャートである。図25に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。   Next, a first example of a processing procedure executed by the display device 1 regarding an operation performed by picking a three-dimensional object will be described with reference to FIGS. FIG. 25 is a flowchart illustrating a processing procedure of a three-dimensional object selection detection process. The processing procedure shown in FIG. 25 is realized by the control unit 22 executing the control program 24a.

図25に示すように、制御部22は、まず、ステップSE01として、3次元オブジェクトを含む仮想空間の画像と現実の空間の画像とを合成して表示する。   As shown in FIG. 25, the control unit 22 first synthesizes and displays a virtual space image including a three-dimensional object and a real space image in step SE01.

続いて、制御部22は、ステップSE02として、検出部44、すなわち、撮影部40および42によって第1の物体および第2の物体が検出されたかを判定する。第1の物体および第2の物体は、現実の物体、例えば、利用者の指である。第1の物体および第2の物体が検出されない場合(ステップSE02,No)、制御部22は、ステップSE10として、操作終了が検出されたかを判定する。   Subsequently, in step SE02, the control unit 22 determines whether the detection unit 44, that is, the imaging units 40 and 42, has detected the first object and the second object. The first object and the second object are real objects, for example, user's fingers. When the first object and the second object are not detected (step SE02, No), the control unit 22 determines whether the operation end is detected as step SE10.

操作終了は、例えば、操作部13に対する所定の操作が行われた場合に検出される。操作終了が検出された場合(ステップSE10,Yes)、制御部22は、選択検出処理を終了させる。操作終了が検出されない場合(ステップSE10,No)、制御部22は、ステップSE02以降を再実行する。   The operation end is detected, for example, when a predetermined operation is performed on the operation unit 13. When the operation end is detected (step SE10, Yes), the control unit 22 ends the selection detection process. When the operation end is not detected (No at Step SE10), the control unit 22 re-executes Step SE02 and the subsequent steps.

第1の物体および第2の物体が検出された場合(ステップSE02,Yes)、制御部22は、ステップSE03として、表示されている3次元オブジェクトの中から第1の物体と第2の物体との間に表示されている3次元オブジェクトを探す。該当する3次元オブジェクトがない場合(ステップSE04,No)、制御部22は、ステップSE10へ進む。   When the first object and the second object are detected (step SE02, Yes), the control unit 22 determines, as step SE03, the first object and the second object from the displayed three-dimensional objects. Search for the three-dimensional object displayed between. When there is no corresponding three-dimensional object (step SE04, No), the control unit 22 proceeds to step SE10.

第1の物体と第2の物体との間に表示されている3次元オブジェクトがみつかった場合(ステップSE04,Yes)、制御部22は、ステップSE05として、第1の物体と第2の物体との間に3次元オブジェクトが位置している時間を取得する。取得した時間が所定時間未満の場合(ステップSE06,No)、制御部22は、ステップSE10へ進む。   When a three-dimensional object displayed between the first object and the second object is found (step SE04, Yes), the control unit 22 determines that the first object, the second object, and the second object are step SE05. The time during which the three-dimensional object is located is acquired. When the acquired time is less than the predetermined time (step SE06, No), the control unit 22 proceeds to step SE10.

取得した時間が所定時間以上の場合(ステップSE06,Yes)、制御部22は、ステップSE07として、第1の物体と第2の物体の距離を算出する。また、制御部22は、ステップSE08として、第1の物体と第2の物体との間に表示されている3次元オブジェクトを選択状態にする。そして、制御部22は、ステップSE09として、後述する操作検出処理を実行し、その中で、選択状態にある3次元オブジェクトを検出された操作に応じて変化させる。操作検出処理が終了した後、制御部22は、ステップSE10へ進む。   When the acquired time is equal to or longer than the predetermined time (step SE06, Yes), the control unit 22 calculates the distance between the first object and the second object as step SE07. Moreover, the control part 22 makes the three-dimensional object currently displayed between the 1st object and the 2nd object a selection state as step SE08. And control part 22 performs operation detection processing mentioned below as Step SE09, and changes the three-dimensional object in a selection state according to detected operation in it. After the operation detection process ends, the control unit 22 proceeds to step SE10.

図26は、操作検出処理の処理手順を示すフローチャートである。図26に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。   FIG. 26 is a flowchart showing the procedure of the operation detection process. The processing procedure shown in FIG. 26 is realized by the control unit 22 executing the control program 24a.

図26に示すように、制御部22は、まず、ステップSF01として、第1の物体と第2の物体の距離を算出する。そして、制御部22は、ステップSF02として、操作検出処理の開始時点以降の第1の物体と第2の物体の距離がほぼ一定であるかを判定する。距離がほぼ一定とは、例えば、現時点での第1の物体と第2の物体の距離の変化量が、操作検出処理の開始時点の距離と比較して、所定の範囲(第1の物体および第2の物体が通常の速度で移動した場合の距離の最大変化量の±10%等)以内に収まっていることを意味する。また、第1の物体と第2の物体の距離が操作検出処理の開始時点以降縮まり続けている場合(第1の物体および第2の物体が3次元オブジェクトを押しつぶす方向に移動している場合)に、距離がほぼ一定であると判定してもよい。また、手振れ等の範囲内でしか両者の距離が変化していない場合に、距離がほぼ一定であると判定してもよい。   As shown in FIG. 26, the control unit 22 first calculates the distance between the first object and the second object as step SF01. And control part 22 judges whether the distance of the 1st object after the start time of operation detection processing and the 2nd object is almost constant as Step SF02. The distance is substantially constant, for example, when the amount of change in the distance between the first object and the second object at the current time is compared with the distance at the start of the operation detection process in a predetermined range (first object and This means that the second object is within ± 10% of the maximum change in distance when moving at a normal speed. Also, when the distance between the first object and the second object continues to shrink after the start of the operation detection process (when the first object and the second object are moving in the direction of crushing the three-dimensional object) In addition, it may be determined that the distance is substantially constant. Further, when the distance between the two changes only within a range such as camera shake, the distance may be determined to be substantially constant.

第1の物体と第2の物体の距離がほぼ一定の場合(ステップSF02,Yes)、制御部22は、ステップSF03として、第1の物体および第2の物体の移動速度を算出する。続いて、制御部22は、ステップSF04として、算出した移動速度が閾値以下であるかを判定する。ここで用いられる閾値は、例えば、人がものを放り投げるときの指先の移動速度である。また、閾値と比較される移動速度は、第1の物体の移動速度と第2の物体の移動速度の平均であってもよいし、いずれか速い方であってもよいし、いずれか遅い方であってもよい。   When the distance between the first object and the second object is substantially constant (step SF02, Yes), the control unit 22 calculates the moving speeds of the first object and the second object as step SF03. Subsequently, in step SF04, the control unit 22 determines whether the calculated moving speed is equal to or less than a threshold value. The threshold value used here is, for example, the moving speed of the fingertip when a person throws a thing. Further, the moving speed compared with the threshold value may be an average of the moving speed of the first object and the moving speed of the second object, whichever is faster, or whichever is slower It may be.

移動速度が閾値以下の場合(ステップSF04,Yes)、制御部22は、ステップSF05として、検出された第1の物体および第2の物体の動きに応じて3次元オブジェクトに変化を加える。例えば、第1の物体および第2の物体の右方向への移動が検出された場合、制御部22は、第1の物体および第2の物体の移動に合わせて3次元オブジェクトを右方向へ移動させる。第1の物体および第2の物体の左回りでの回転が検出された場合、制御部22は、第1の物体および第2の物体の回転に合わせて3次元オブジェクトを左回りで回転させる。移動と回転が同時に検出された場合、移動と回転が同時に実行される。3次元オブジェクトの移動や回転に対する障害物がある場合、3次元オブジェクトが障害物に接触した時点で3次元オブジェクトの移動や回転を停止させてもよい。障害物は、現実の物体でもよいし、他の3次元オブジェクトでもよい。その後、制御部22は、ステップSF01以降を再実行する。   When the moving speed is less than or equal to the threshold (step SF04, Yes), the control unit 22 changes the three-dimensional object according to the detected movements of the first object and the second object as step SF05. For example, when the rightward movement of the first object and the second object is detected, the control unit 22 moves the three-dimensional object to the right according to the movement of the first object and the second object. Let When the counterclockwise rotation of the first object and the second object is detected, the control unit 22 rotates the three-dimensional object counterclockwise in accordance with the rotation of the first object and the second object. When movement and rotation are detected simultaneously, movement and rotation are performed simultaneously. When there is an obstacle to the movement and rotation of the three-dimensional object, the movement and rotation of the three-dimensional object may be stopped when the three-dimensional object contacts the obstacle. The obstacle may be a real object or another three-dimensional object. Thereafter, the control unit 22 re-executes Step SF01 and subsequent steps.

移動速度が閾値より速い場合(ステップSF04,No)、制御部22は、ステップSF06として、3次元オブジェクトを消去する。3次元オブジェクトを消去するに際して、3次元オブジェクトが第1の物体および第2の物体の移動方向へ向けて飛んでいくようにアニメーション表示してもよい。そして、制御部22は、操作検出処理を終了させる。このように、3次元オブジェクトを放り投げるように第1の物体および第2の物体が高速で移動した場合に3次元オブジェクトを消去することにより、直感的な操作によって3次元オブジェクトの消去を実現することができる。第1の物体および第2の物体を高速で移動させる操作ではなく、例えば、3次元オブジェクトを握りつぶす操作に3次元オブジェクトの消去を割り当ててもよい。また、3次元オブジェクトを消去する代わりに、3次元オブジェクトを当初の配置場所に戻すこととしてもよい。表示装置1は、ステップSF03、SF04およびステップSF06の処理を行わなくてもよい。すなわち、表示装置1は、ステップSF02で第1の物体と第2の物体の距離がほぼ一定と判定した場合には、2つの物体の移動速度にかかわらず、ステップSF05を実行してもよい。   When the moving speed is faster than the threshold (No at Step SF04), the control unit 22 deletes the three-dimensional object as Step SF06. When deleting the three-dimensional object, an animation may be displayed so that the three-dimensional object flies in the moving direction of the first object and the second object. Then, the control unit 22 ends the operation detection process. As described above, when the first object and the second object move at high speed so as to throw the 3D object, the 3D object is erased by an intuitive operation by erasing the 3D object. be able to. Instead of the operation of moving the first object and the second object at a high speed, for example, erasure of the three-dimensional object may be assigned to an operation of crushing the three-dimensional object. Further, instead of deleting the three-dimensional object, the three-dimensional object may be returned to the original placement location. The display device 1 may not perform the processes of steps SF03, SF04, and SF06. That is, the display device 1 may execute step SF05 when the distance between the first object and the second object is determined to be substantially constant in step SF02, regardless of the moving speed of the two objects.

第1の物体と第2の物体の距離がほぼ一定でない場合(ステップSF02,No)、制御部22は、ステップSF07として、距離が、3次元オブジェクトの選択時、すなわち、操作検出処理の開始時点よりも拡大しているかを判定する。距離が拡大している場合(ステップSF07,Yes)、制御部22は、ステップSF08として、3次元オブジェクトの選択状態を解除する。第1の物体と第2の物体の距離を拡大するという操作は、摘んでいる現実のオブジェクトを放す操作と類似している。そのため、かかる操作は、3次元オブジェクトの選択を解除するための操作として、直感的で分かりやすい。   When the distance between the first object and the second object is not substantially constant (step SF02, No), the control unit 22 determines whether the distance is a three-dimensional object, that is, the start point of the operation detection process, as step SF07. It is judged whether it is expanding. When the distance is increased (step SF07, Yes), the control unit 22 cancels the selected state of the three-dimensional object as step SF08. The operation of increasing the distance between the first object and the second object is similar to the operation of releasing the actual object being picked. Therefore, this operation is intuitive and easy to understand as an operation for canceling the selection of the three-dimensional object.

続いて、制御部22は、ステップSF09として、選択状態を解除した3次元オブジェクトを重力等に従って移動させる。そして、制御部22は、操作検出処理を終了させる。ここでの移動は、例えば、3次元オブジェクトが重力に従って落下し、床やテーブルの上で停止するように表示される。3次元オブジェクトの動きを停止させる前に、3次元オブジェクトの弾性や床やテーブルの硬度に応じて3次元オブジェクトをバウンドさせてもよい。3次元オブジェクトが床やテーブルに衝突するときの衝撃の大きさを算出し、衝撃が所定の値よりも大きい場合には3次元オブジェクトを破損したように表示してもよい。また、実際の重力が働く場合よりも3次元オブジェクトをゆっくりと移動させてもよい。   Subsequently, in step SF09, the control unit 22 moves the selected three-dimensional object according to gravity or the like. Then, the control unit 22 ends the operation detection process. The movement here is displayed, for example, so that the three-dimensional object falls according to gravity and stops on the floor or table. Before stopping the movement of the three-dimensional object, the three-dimensional object may be bounced according to the elasticity of the three-dimensional object and the hardness of the floor or table. The magnitude of impact when the three-dimensional object collides with the floor or table may be calculated, and if the impact is greater than a predetermined value, the three-dimensional object may be displayed as damaged. Further, the three-dimensional object may be moved more slowly than when actual gravity works.

第1の物体と第2の物体の距離が3次元オブジェクトの選択時よりも縮まっている場合(ステップSF07,No)、制御部22は、ステップSF10として、距離に応じて3次元オブジェクトを変形させる。そして、制御部22は、ステップSF01以降を再実行する。3次元オブジェクトを変形させる程度は、例えば、3次元オブジェクトに属性として設定されている弾性に応じて変更してもよい。制御部22は、ゴムボールを模した3次元オブジェクトのように属性として低い硬度を設定されているオブジェクトについては、第1の物体と第2の物体の距離が縮まるに応じて変形の度合いを高めてよい。また、制御部22は、積み木を模した3次元オブジェクトのように属性として高い硬度を設定されているオブジェクトについては、第1の物体と第2の物体の距離が縮まっても変形の度合いを小さく保ってよい。   When the distance between the first object and the second object is shorter than when the three-dimensional object is selected (step SF07, No), the control unit 22 deforms the three-dimensional object according to the distance as step SF10. . Then, the control unit 22 re-executes Step SF01 and subsequent steps. For example, the degree of deformation of the three-dimensional object may be changed according to the elasticity set as an attribute of the three-dimensional object. The control unit 22 increases the degree of deformation of an object having a low hardness as an attribute, such as a three-dimensional object simulating a rubber ball, as the distance between the first object and the second object decreases. It's okay. In addition, the control unit 22 reduces the degree of deformation of an object having a high hardness as an attribute, such as a three-dimensional object imitating a building block, even if the distance between the first object and the second object is reduced. You can keep it.

第1の物体と第2の物体の距離が3次元オブジェクトの選択時よりも縮まっている場合に、表示装置1は、3次元オブジェクトを変形させるのではなく縮小させてもよい。第1の物体と第2の物体の距離が所定の値以下になった場合に、表示装置1は、3次元オブジェクトを破損したように表示してもよい。   When the distance between the first object and the second object is shorter than when the three-dimensional object is selected, the display device 1 may reduce the three-dimensional object instead of deforming it. When the distance between the first object and the second object becomes a predetermined value or less, the display device 1 may display the three-dimensional object as if it was damaged.

上述してきたように、第1の例では、指等の物体の間に3次元オブジェクトが位置する状態が所定時間以上継続した場合に3次元オブジェクトが選択されることとしたので、3次元オブジェクトの選択を直感的で分かりやすい操作により実現することができる。   As described above, in the first example, the three-dimensional object is selected when the state where the three-dimensional object is positioned between the objects such as the fingers continues for a predetermined time or longer. Selection can be realized by an intuitive and easy-to-understand operation.

図27に示すように、表示装置1は、第1の物体と第2の物体のうち少なくとも一方が3次元オブジェクトに接触している状態が所定時間以上継続することを、3次元オブジェクトを選択する条件としてもよい。3次元オブジェクトへの接触を選択の条件とすることにより、複数の3次元オブジェクトが近接して表示されている場合に、利用者が所望の3次元オブジェクトを選択し易くなる。   As illustrated in FIG. 27, the display device 1 selects a three-dimensional object that a state in which at least one of the first object and the second object is in contact with the three-dimensional object continues for a predetermined time or longer. It is good also as conditions. By making contact with a three-dimensional object as a selection condition, it becomes easier for a user to select a desired three-dimensional object when a plurality of three-dimensional objects are displayed close to each other.

3次元オブジェクトを摘んで行う操作に関する処理手順の第2の例について説明する。第2の例における操作検出処理は、第1の例における操作検出処理と同一である。そこで、第2の例については、第1の例と重複する説明は省略し、主として、選択検出処理について説明する。   A second example of a processing procedure related to an operation performed by picking up a three-dimensional object will be described. The operation detection process in the second example is the same as the operation detection process in the first example. Therefore, in the second example, description overlapping with the first example is omitted, and mainly the selection detection process will be described.

まず、図28を参照しながら、3次元オブジェクトを摘んで行う操作の検出について説明する。図28は、3次元オブジェクトを摘んで行う操作の検出について説明するための図である。図28に示すステップS51では、表示空間中に、3次元オブジェクトOB1が立体的に表示されている。また、3次元オブジェクトOB1を選択するために、利用者は、指F1と指F2の間に3次元オブジェクトOB1が位置するように指F1および指F2を移動させている。   First, detection of an operation performed by picking a three-dimensional object will be described with reference to FIG. FIG. 28 is a diagram for explaining the detection of an operation performed by picking up a three-dimensional object. In step S51 shown in FIG. 28, the three-dimensional object OB1 is three-dimensionally displayed in the display space. In order to select the three-dimensional object OB1, the user moves the finger F1 and the finger F2 so that the three-dimensional object OB1 is positioned between the finger F1 and the finger F2.

表示装置1は、表示空間内で2つの現実の物体が検出され、かつ、それらの2つの物体の間に3次元オブジェクトOB1が位置する場合、2つの物体の距離の変化を監視する。そして、距離が所定時間以上ほぼ一定であれば、3次元オブジェクトOB1が選択されたと判定し、3次元オブジェクトOB1を選択状態にする。そして、表示装置1は、3次元オブジェクトOB1の表示態様を変更する等して、3次元オブジェクトOB1が選択状態になったことを利用者に通知する。   When two real objects are detected in the display space and the three-dimensional object OB1 is located between the two objects, the display device 1 monitors a change in the distance between the two objects. If the distance is substantially constant for a predetermined time or more, it is determined that the three-dimensional object OB1 has been selected, and the three-dimensional object OB1 is selected. Then, the display device 1 notifies the user that the three-dimensional object OB1 has been selected, for example, by changing the display mode of the three-dimensional object OB1.

表示装置1が2つの物体の距離の変化を監視している間、2つの物体は、3次元オブジェクトOB1を挟む位置に留まる必要はない。すなわち、利用者は、ステップS51に示したように指F1と指F2の間に3次元オブジェクトOB1が位置するように指F1および指F2を移動させた後、その状態を保つことなく、指F1および指F2を他の位置へ移動させて構わない。   While the display device 1 monitors a change in the distance between the two objects, the two objects do not need to stay at a position between which the three-dimensional object OB1 is sandwiched. That is, the user moves the finger F1 and the finger F2 so that the three-dimensional object OB1 is positioned between the finger F1 and the finger F2 as shown in step S51, and then maintains the state of the finger F1. The finger F2 may be moved to another position.

ステップS51の状態から、ステップS52に示すように、利用者が、指F1と指F2の距離D1をほぼ一定に保ったまま移動させたものとする。この場合、表示装置1は、ステップS53に示すように、指F1と指F2の距離D1がほぼ一定に保たれた状態が所定時間以上継続した段階で、3次元オブジェクトOB1を選択状態にする。そして、表示装置1は、3次元オブジェクトOB1を、あたかもステップS51の段階で既に選択されていたかのように、指F1および指F2の間に移動させる。表示装置1は、ステップS51からステップS53までの指F1と指F2の動きを記憶しておき、記憶しておいた動きに合わせて3次元オブジェクトOB1を回転等させてもよい。その後、表示装置1は、指F1および指F2の動きに応じて、3次元オブジェクトOB1に移動、変形、消失、置換等の変化を加える。   Assume that the user has moved from the state of step S51 while keeping the distance D1 between the finger F1 and the finger F2 substantially constant as shown in step S52. In this case, as shown in step S53, the display device 1 puts the three-dimensional object OB1 into a selected state when the distance D1 between the finger F1 and the finger F2 is kept almost constant for a predetermined time or longer. Then, the display device 1 moves the three-dimensional object OB1 between the finger F1 and the finger F2 as if they were already selected in the step S51. The display device 1 may store the movements of the finger F1 and the finger F2 from step S51 to step S53, and rotate the three-dimensional object OB1 according to the stored movement. Thereafter, the display device 1 adds changes such as movement, deformation, disappearance, and replacement to the three-dimensional object OB1 according to the movement of the finger F1 and the finger F2.

このように、2つの物体が3次元オブジェクトを挟む位置に一旦移動した後は、物体がその場に留まらなくても3次元オブジェクトを選択可能にすることにより、利用者は、3次元オブジェクトを選択した後の操作を迅速に開始することができる。   In this way, once the two objects have moved to a position sandwiching the 3D object, the user can select the 3D object by making the 3D object selectable even if the object does not stay on the spot. After that, the operation can be started quickly.

次に、図29を参照しながら、第2の例における選択検出処理の処理手順について説明する。図29は、3次元オブジェクトの選択検出処理の処理手順を示すフローチャートである。図29に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。   Next, the procedure of the selection detection process in the second example will be described with reference to FIG. FIG. 29 is a flowchart illustrating a processing procedure of a three-dimensional object selection detection process. The processing procedure shown in FIG. 29 is realized by the control unit 22 executing the control program 24a.

図29に示すように、制御部22は、まず、ステップSG01として、3次元オブジェクトを含む仮想空間の画像と現実の空間の画像とを合成して表示する。続いて、制御部22は、ステップSG02として、検出部44、すなわち、撮影部40および42によって第1の物体および第2の物体が検出されたかを判定する。第1の物体および第2の物体が検出されない場合(ステップSG02,No)、制御部22は、ステップSG14として、仮選択状態の3次元オブジェクトがあれば、その3次元オブジェクトの仮選択状態を解除する。仮選択状態とは、2つの物体の間に3次元オブジェクトが表示されている状態が検出された後、2つの物体の距離がほぼ一定に保たれているかが監視されている状態である。   As shown in FIG. 29, first, the control unit 22 synthesizes and displays a virtual space image including a three-dimensional object and a real space image in step SG01. Subsequently, in step SG02, the control unit 22 determines whether the first object and the second object are detected by the detection unit 44, that is, the imaging units 40 and 42. When the first object and the second object are not detected (step SG02, No), the control unit 22 cancels the temporarily selected state of the three-dimensional object if there is a temporarily selected three-dimensional object as step SG14. To do. The provisional selection state is a state in which a state in which a three-dimensional object is displayed between two objects is detected and whether the distance between the two objects is maintained substantially constant is monitored.

そして、制御部22は、ステップSG15として、操作終了が検出されたかを判定する。操作終了が検出された場合(ステップSG15,Yes)、制御部22は、選択検出処理を終了させる。操作終了が検出されない場合(ステップSG15,No)、制御部22は、ステップSG02以降を再実行する。   And control part 22 judges whether the end of operation was detected as Step SG15. When the operation end is detected (step SG15, Yes), the control unit 22 ends the selection detection process. When the operation end is not detected (No at Step SG15), the control unit 22 re-executes Step SG02 and the subsequent steps.

第1の物体および第2の物体が検出された場合(ステップSG02,Yes)、制御部22は、ステップSG03として、仮選択状態の3次元オブジェクトがあるか否かを判定する。仮選択状態の3次元オブジェクトがない場合(ステップSG03,No)、制御部22は、ステップSG04として、表示されている3次元オブジェクトの中から第1の物体と第2の物体との間に表示されている3次元オブジェクトを探す。該当する3次元オブジェクトがない場合(ステップSG05,No)、制御部22は、ステップSG15へ進む。   When the first object and the second object are detected (step SG02, Yes), the control unit 22 determines whether there is a temporarily selected three-dimensional object as step SG03. When there is no temporarily selected three-dimensional object (step SG03, No), the control unit 22 displays the first three-dimensional object between the first and second objects as step SG04. Find the 3D object that is being used. When there is no corresponding three-dimensional object (step SG05, No), the control unit 22 proceeds to step SG15.

第1の物体と第2の物体との間に表示されている3次元オブジェクトがみつかった場合(ステップSG05,Yes)、制御部22は、ステップSG06として、第1の物体と第2の物体との間に表示されている3次元オブジェクトを仮選択状態にする。また、制御部22は、ステップSG07として、第1の物体と第2の物体の距離を算出する。そして、制御部22は、ステップSG15へ進む。   When a three-dimensional object displayed between the first object and the second object is found (step SG05, Yes), the control unit 22 determines whether the first object, the second object, and the second object are step SG06. The three-dimensional object displayed during is temporarily set to the selected state. Moreover, the control part 22 calculates the distance of a 1st object and a 2nd object as step SG07. And the control part 22 progresses to step SG15.

第1の物体および第2の物体が検出され、かつ、仮選択状態の3次元オブジェクトがある場合(ステップSG03,Yes)、制御部22は、ステップSG08として、第1の物体と第2の物体の距離を算出する。そして、制御部22は、ステップSG09として、距離がほぼ一定であるかを判定する。距離がほぼ一定でない場合(ステップSG09,No)、制御部22は、ステップSG14として、仮選択状態の3次元オブジェクトの仮選択状態を解除する。そして、制御部22は、ステップSG15へ進む。   When the first object and the second object are detected and there is a provisionally selected three-dimensional object (step SG03, Yes), the control unit 22 sets the first object and the second object as step SG08. The distance is calculated. And the control part 22 determines whether distance is substantially constant as step SG09. When the distance is not substantially constant (No in Step SG09), the control unit 22 cancels the temporary selection state of the three-dimensional object in the temporary selection state as Step SG14. And the control part 22 progresses to step SG15.

第1の物体と第2の物体の距離がほぼ一定の場合(ステップSG09,Yes)、制御部22は、ステップSG10として、距離がほぼ一定に保たれている期間が所定時間以上であるかを判定する。距離がほぼ一定に保たれている期間が所定時間未満の場合(ステップSG10,No)、制御部22は、ステップSG15へ進む。   When the distance between the first object and the second object is substantially constant (step SG09, Yes), the control unit 22 determines whether the period during which the distance is kept substantially constant is a predetermined time or more as step SG10. judge. When the period during which the distance is kept substantially constant is less than the predetermined time (step SG10, No), the control unit 22 proceeds to step SG15.

距離がほぼ一定に保たれている期間が所定時間以上の場合(ステップSG10,Yes)、制御部22は、ステップSG11として、第1の物体と第2の物体との間に表示されている3次元オブジェクトを選択状態にする。また、制御部22は、ステップSG12として、第1の物体と第2の物体との間に3次元オブジェクトを移動させる。そして、制御部22は、ステップSG13として、図26に示した操作検出処理を実行し、その中で、選択状態にある3次元オブジェクトを検出された操作に応じて変化させる。操作検出処理が終了した後、制御部22は、ステップSG15へ進む。   When the period during which the distance is maintained substantially constant is equal to or longer than the predetermined time (step SG10, Yes), the control unit 22 is displayed between the first object and the second object as step SG11. Put the dimension object in the selected state. Moreover, the control part 22 moves a three-dimensional object between a 1st object and a 2nd object as step SG12. And control part 22 performs operation detection processing shown in Drawing 26 as Step SG13, and changes the three-dimensional object in a selection state according to detected operation in it. After the operation detection process is completed, the control unit 22 proceeds to step SG15.

上述してきたように、第2の例では、指等の物体の間に3次元オブジェクトが位置した後、物体の距離が所定時間以上ほぼ一定に保たれた場合に3次元オブジェクトが選択されることとしたので、利用者は、3次元オブジェクトの選択後の操作を迅速に開始することができる。   As described above, in the second example, after a three-dimensional object is positioned between objects such as fingers, the three-dimensional object is selected when the distance of the object is kept substantially constant for a predetermined time or more. Therefore, the user can quickly start the operation after selecting the three-dimensional object.

図30に示すステップS61からステップS63のように、表示装置1は、第1の物体と第2の物体のうち少なくとも一方が3次元オブジェクトに接触した後に第1の物体と第2の物体の距離が所定時間以上ほぼ一定に保たれることを、3次元オブジェクトを選択する条件としてもよい。3次元オブジェクトへの接触を選択の条件とすることにより、複数の3次元オブジェクトが近接して表示されている場合に、利用者が所望の3次元オブジェクトを選択し易くなる。   As in Step S61 to Step S63 illustrated in FIG. 30, the display device 1 determines the distance between the first object and the second object after at least one of the first object and the second object contacts the three-dimensional object. May be kept substantially constant for a predetermined time or more as a condition for selecting a three-dimensional object. By making contact with a three-dimensional object as a selection condition, it becomes easier for a user to select a desired three-dimensional object when a plurality of three-dimensional objects are displayed close to each other.

3次元オブジェクトを摘んで行う操作に関する処理手順の第3の例について説明する。第3の例については、第1の例と重複する説明は省略し、主として、選択検出処理および操作検出処理について説明する。   A third example of a processing procedure related to an operation performed by picking up a three-dimensional object will be described. Regarding the third example, the description overlapping with the first example is omitted, and mainly the selection detection process and the operation detection process will be described.

まず、図31および図32を参照しながら、3次元オブジェクトを摘んで行う操作の検出について説明する。図31に示すステップS71では、表示空間中に、3次元オブジェクトOB1が立体的に表示されている。また、3次元オブジェクトOB1を選択するために、利用者は、指F1と指F2の間に3次元オブジェクトOB1が位置するように指F1および指F2を移動させている。   First, detection of an operation performed by picking up a three-dimensional object will be described with reference to FIGS. 31 and 32. In step S71 shown in FIG. 31, the three-dimensional object OB1 is displayed three-dimensionally in the display space. In order to select the three-dimensional object OB1, the user moves the finger F1 and the finger F2 so that the three-dimensional object OB1 is positioned between the finger F1 and the finger F2.

表示装置1は、表示空間内で2つの現実の物体が検出され、かつ、それらの2つの物体の間に3次元オブジェクトOB1が位置する場合、2つの物体の距離の変化を監視する。そして、距離が所定時間以上ほぼ一定であれば、3次元オブジェクトOB1が選択されたと判定し、3次元オブジェクトOB1を選択状態にする。そして、表示装置1は、3次元オブジェクトOB1の表示態様を変更する等して、3次元オブジェクトOB1が選択状態になったことを利用者に通知する。   When two real objects are detected in the display space and the three-dimensional object OB1 is located between the two objects, the display device 1 monitors a change in the distance between the two objects. If the distance is substantially constant for a predetermined time or more, it is determined that the three-dimensional object OB1 has been selected, and the three-dimensional object OB1 is selected. Then, the display device 1 notifies the user that the three-dimensional object OB1 has been selected, for example, by changing the display mode of the three-dimensional object OB1.

表示装置1が2つの物体の距離の変化を監視している間、2つの物体は、3次元オブジェクトOB1を挟む位置に留まる必要はない。すなわち、利用者は、ステップS71に示したように指F1と指F2の間に3次元オブジェクトOB1が位置するように指F1および指F2を移動させた後、その状態を保つことなく、指F1および指F2を他の位置へ移動させて構わない。   While the display device 1 monitors a change in the distance between the two objects, the two objects do not need to stay at a position between which the three-dimensional object OB1 is sandwiched. That is, the user moves the finger F1 and the finger F2 so that the three-dimensional object OB1 is positioned between the finger F1 and the finger F2 as shown in step S71, and then maintains the state of the finger F1. The finger F2 may be moved to another position.

ステップS71の状態から、ステップS72に示すように、利用者が、指F1と指F2の距離D1をほぼ一定に保ったまま移動させたものとする。この場合、表示装置1は、指F1と指F2の間に3次元オブジェクトOB1が表示されていることが検出された段階、すなわち、ステップS71の段階から、指F1および指F2の動きに応じて、3次元オブジェクトOB1に移動、変形、消失、置換等の変化を加える。そして、表示装置1は、ステップS73に示すように、指F1と指F2の距離D1がほぼ一定に保たれた状態が所定時間以上継続した段階で、3次元オブジェクトOB1を選択状態にする。   Assume that the user has moved from the state of step S71 while keeping the distance D1 between the finger F1 and the finger F2 substantially constant as shown in step S72. In this case, the display device 1 responds to the movement of the finger F1 and the finger F2 from the stage where it is detected that the three-dimensional object OB1 is displayed between the fingers F1 and F2, that is, from the stage of step S71. Changes such as movement, deformation, disappearance, and replacement are added to the three-dimensional object OB1. Then, as shown in step S73, the display device 1 places the three-dimensional object OB1 in a selected state when the distance D1 between the finger F1 and the finger F2 is kept substantially constant for a predetermined time or longer.

図32のステップS74に示すように、所定時間が経過する前に指F1と指F2の距離D1が拡大した場合、すなわち、選択が行われなかった場合、表示装置1は、それまでに加えた変化と逆の変化を3次元オブジェクトOB1に加える。その結果、3次元オブジェクトOB1は、ステップS71の段階と同じ位置に同じ状態で表示される。逆の変化を3次元オブジェクトOB1に加える速度は、それまでに3次元オブジェクトOB1に変化が加えられた速度よりも速くてもよい。すなわち、高速に逆再生しているかのように3次元オブジェクトOB1を逆変化させてもよい。   As shown in step S74 of FIG. 32, when the distance D1 between the finger F1 and the finger F2 is expanded before the predetermined time has passed, that is, when the selection is not performed, the display device 1 has been added so far. A change opposite to the change is added to the three-dimensional object OB1. As a result, the three-dimensional object OB1 is displayed in the same state at the same position as in the step S71. The speed at which the reverse change is applied to the three-dimensional object OB1 may be faster than the speed at which the change has been applied to the three-dimensional object OB1 so far. That is, the three-dimensional object OB1 may be reversely changed as if it is reversely played back at high speed.

このように、2つの物体の間に3次元オブジェクトが表示されていることが検出された段階から3次元オブジェクトに変化を加え始めることにより、利用者は、3次元オブジェクトが選択されつつあることを選択が確定する前から認識することができる。その結果、利用者は、意図した3次元オブジェクトが選択されたか否かを早期に知ることができる。表示装置1は、2つの物体の距離がほぼ一定に保たれた状態が所定時間以上継続するまでは、変化を加えられている3次元オブジェクトを通常時とも選択状態とも異なる態様(例えば、半透明)で表示することにより、利用者が3次元オブジェクトの状態を判別しやすくしてもよい。   Thus, by starting to apply a change to the 3D object from the stage where it is detected that the 3D object is displayed between the two objects, the user can confirm that the 3D object is being selected. It can be recognized before the selection is confirmed. As a result, the user can know at an early stage whether or not the intended three-dimensional object has been selected. The display device 1 has a mode in which the changed three-dimensional object is different from the normal state and the selected state (for example, translucent) until the distance between the two objects is kept substantially constant for a predetermined time or longer. ) May make it easier for the user to determine the state of the three-dimensional object.

次に、図33および図34を参照しながら、3次元オブジェクトを摘んで行う操作に関して表示装置1が実行する処理手順について説明する。図33は、3次元オブジェクトの選択検出処理の処理手順を示すフローチャートである。図33に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。   Next, a processing procedure executed by the display device 1 regarding an operation performed by picking up a three-dimensional object will be described with reference to FIGS. 33 and 34. FIG. 33 is a flowchart illustrating a processing procedure of a three-dimensional object selection detection process. The processing procedure shown in FIG. 33 is realized by the control unit 22 executing the control program 24a.

図33に示すように、制御部22は、まず、ステップSH01として、3次元オブジェクトを含む仮想空間の画像と現実の空間の画像とを合成して表示する。続いて、制御部22は、ステップSH02として、検出部44、すなわち、撮影部40および42によって第1の物体および第2の物体が検出されたかを判定する。第1の物体および第2の物体が検出されない場合(ステップSH02,No)、制御部22は、ステップSH10として、仮選択状態の3次元オブジェクトがあれば、その3次元オブジェクトの仮選択状態を解除する。   As shown in FIG. 33, the control unit 22 first combines and displays a virtual space image including a three-dimensional object and a real space image in step SH01. Subsequently, in step SH02, the control unit 22 determines whether the first object and the second object are detected by the detection unit 44, that is, the imaging units 40 and 42. When the first object and the second object are not detected (step SH02, No), the control unit 22 cancels the temporarily selected state of the three-dimensional object if there is a temporarily selected three-dimensional object as step SH10. To do.

そして、制御部22は、ステップSH11として、操作終了が検出されたかを判定する。操作終了が検出された場合(ステップSH11,Yes)、制御部22は、選択検出処理を終了させる。操作終了が検出されない場合(ステップSH11,No)、制御部22は、ステップSH02以降を再実行する。   And the control part 22 determines whether operation completion was detected as step SH11. When the operation end is detected (step SH11, Yes), the control unit 22 ends the selection detection process. When the operation end is not detected (No at Step SH11), the control unit 22 re-executes Step SH02 and the subsequent steps.

第1の物体および第2の物体が検出された場合(ステップSH02,Yes)、制御部22は、ステップSH03として、仮選択状態の3次元オブジェクトがあるか否かを判定する。仮選択状態の3次元オブジェクトがない場合(ステップSH03,No)、制御部22は、ステップSH04として、表示されている3次元オブジェクトの中から第1の物体と第2の物体との間に表示されている3次元オブジェクトを探す。該当する3次元オブジェクトがない場合(ステップSH05,No)、制御部22は、ステップSH11へ進む。   When the first object and the second object are detected (step SH02, Yes), the control unit 22 determines whether or not there is a temporarily selected three-dimensional object as step SH03. When there is no provisionally selected three-dimensional object (step SH03, No), the control unit 22 displays as a step SH04 between the first object and the second object among the displayed three-dimensional objects. Find the 3D object that is being used. When there is no corresponding three-dimensional object (step SH05, No), the control unit 22 proceeds to step SH11.

第1の物体と第2の物体との間に表示されている3次元オブジェクトがみつかった場合(ステップSH05,Yes)、制御部22は、ステップSH06として、第1の物体と第2の物体との間に表示されている3次元オブジェクトを仮選択状態にする。また、制御部22は、ステップSH07として、第1の物体と第2の物体の距離を算出する。そして、制御部22は、ステップSH11へ進む。   When a three-dimensional object displayed between the first object and the second object is found (step SH05, Yes), the control unit 22 determines that the first object, the second object, and the second object are step SH06. The three-dimensional object displayed during is temporarily set to the selected state. Moreover, the control part 22 calculates the distance of a 1st object and a 2nd object as step SH07. Then, the control unit 22 proceeds to step SH11.

第1の物体および第2の物体が検出され、かつ、仮選択状態の3次元オブジェクトがある場合(ステップSH03,Yes)、制御部22は、ステップSH08として、第1の物体と第2の物体の少なくとも一方が移動しているかを判定する。第1の物体と第2の物体のいずれも移動していない場合(ステップSH08,No)、制御部22は、ステップSH11へ進む。   When the first object and the second object are detected and there is a temporarily selected three-dimensional object (step SH03, Yes), the control unit 22 sets the first object and the second object as step SH08. It is determined whether at least one of them is moving. When neither the first object nor the second object has moved (step SH08, No), the control unit 22 proceeds to step SH11.

第1の物体と第2の物体の少なくとも一方が移動している場合(ステップSH08,Yes)、制御部22は、ステップSH09として、図34に示す操作検出処理を実行し、その中で、選択状態にある3次元オブジェクトを検出された操作に応じて変化させる。操作検出処理が終了した後、制御部22は、ステップSH11へ進む。   When at least one of the first object and the second object is moving (step SH08, Yes), the control unit 22 executes the operation detection process shown in FIG. 34 as step SH09, and selects among them. The three-dimensional object in the state is changed according to the detected operation. After the operation detection process is completed, the control unit 22 proceeds to step SH11.

図34は、操作検出処理の処理手順を示すフローチャートである。図34に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。図34に示すように、制御部22は、まず、ステップSI01として、第1の物体と第2の物体の距離を算出する。そして、制御部22は、ステップSI02として、操作検出処理の開始時点以降の第1の物体と第2の物体の距離がほぼ一定であるかを判定する。   FIG. 34 is a flowchart illustrating the procedure of the operation detection process. The processing procedure shown in FIG. 34 is realized by the control unit 22 executing the control program 24a. As shown in FIG. 34, the controller 22 first calculates the distance between the first object and the second object as step SI01. And control part 22 judges whether the distance of the 1st object after the start time of operation detection processing and the 2nd object is almost constant as Step SI02.

第1の物体と第2の物体の距離がほぼ一定の場合(ステップSI02,Yes)、制御部22は、ステップSI03として、操作検出処理が開始されてから所定時間が経過したかを判定する。所定時間が経過していた場合(ステップSI03,Yes)、制御部22は、ステップSI04として、仮選択状態の3次元オブジェクトがあれば、その3次元オブジェクトを選択状態にする。所定時間が経過していない場合(ステップSI03,No)、ステップSI04は実行されない。   When the distance between the first object and the second object is substantially constant (step SI02, Yes), the control unit 22 determines whether a predetermined time has elapsed since the operation detection process was started as step SI03. If the predetermined time has elapsed (step SI03, Yes), the control unit 22 sets the three-dimensional object in the selected state if there is a temporarily selected three-dimensional object as step SI04. If the predetermined time has not elapsed (step SI03, No), step SI04 is not executed.

続いて、制御部22は、ステップSI05として、第1の物体および第2の物体の移動速度を算出する。そして、制御部22は、ステップSI06として、算出した移動速度が閾値以下であるかを判定する。移動速度が閾値以下の場合(ステップSI06,Yes)、制御部22は、ステップSI07として、検出された第1の物体および第2の物体の動きに応じて3次元オブジェクトを移動させたり回転させたりする。そして、制御部22は、ステップSI01以降を再実行する。   Subsequently, as step SI05, the control unit 22 calculates the moving speeds of the first object and the second object. And the control part 22 determines whether the calculated moving speed is below a threshold value as step SI06. When the moving speed is equal to or lower than the threshold (step SI06, Yes), the control unit 22 moves or rotates the three-dimensional object according to the detected movements of the first object and the second object as step SI07. To do. Then, the control unit 22 re-executes step SI01 and subsequent steps.

移動速度が閾値より速い場合(ステップSI06,No)、制御部22は、ステップSI08として、3次元オブジェクトを消去する。3次元オブジェクトを消去するに際して、3次元オブジェクトが第1の物体および第2の物体の移動方向へ向けて飛んでいくようにアニメーション表示してもよい。そして、制御部22は、操作検出処理を終了させる。第1の物体および第2の物体を高速で移動させる操作ではなく、例えば、3次元オブジェクトを握りつぶす操作に3次元オブジェクトの消去を割り当ててもよい。3次元オブジェクトを消去する代わりに、3次元オブジェクトを当初の配置場所に戻すこととしてもよい。表示装置1は、ステップSI05、SI06およびステップSI08の処理を行わなくてもよい。すなわち、表示装置1は、ステップSI03でNoと判定した場合またはステップSI04を実行した後に、2つの物体の移動速度にかかわらず、ステップSI07を実行してもよい。   When the moving speed is faster than the threshold (step SI06, No), the control unit 22 deletes the three-dimensional object as step SI08. When deleting the three-dimensional object, an animation may be displayed so that the three-dimensional object flies in the moving direction of the first object and the second object. Then, the control unit 22 ends the operation detection process. Instead of the operation of moving the first object and the second object at a high speed, for example, erasure of the three-dimensional object may be assigned to an operation of crushing the three-dimensional object. Instead of deleting the three-dimensional object, the three-dimensional object may be returned to the original placement location. The display device 1 does not have to perform the processes of steps SI05, SI06, and step SI08. That is, the display device 1 may execute step SI07 regardless of the moving speed of the two objects after determining NO in step SI03 or after executing step SI04.

第1の物体と第2の物体の距離がほぼ一定でない場合(ステップSI02,No)、制御部22は、ステップSI09として、距離が、3次元オブジェクトの選択時、すなわち、操作検出処理の開始時点よりも拡大しているかを判定する。距離が拡大している場合(ステップSI09,Yes)、制御部22は、ステップSI10として、第1の物体と第2の物体の間に表示されていた3次元オブジェクトが仮選択状態であるかを判定する。   When the distance between the first object and the second object is not substantially constant (No in step SI02), the control unit 22 determines whether the distance is a three-dimensional object, that is, the start point of the operation detection process, as step SI09. It is judged whether it is expanding. When the distance is increased (step SI09, Yes), the control unit 22 determines whether the three-dimensional object displayed between the first object and the second object is in a temporarily selected state as step SI10. judge.

3次元オブジェクトが仮選択状態である場合(ステップSI10,Yes)、制御部22は、ステップSI11として、3次元オブジェクトの仮選択状態を解除する。また、制御部22は、ステップSI12として、3次元オブジェクトを逆変化させて元の状態に戻す。そして、制御部22は、操作検出処理を終了させる。   When the three-dimensional object is in the temporary selection state (step SI10, Yes), the control unit 22 cancels the temporary selection state of the three-dimensional object as step SI11. Moreover, the control part 22 reversely changes a three-dimensional object and returns it to the original state as step SI12. Then, the control unit 22 ends the operation detection process.

3次元オブジェクトが仮選択状態でない場合、すなわち、選択状態の場合(ステップSI10,No)、制御部22は、ステップSI13として、3次元オブジェクトの選択状態を解除する。また、制御部22は、ステップSI14として、選択状態を解除した3次元オブジェクトを重力等に従って移動させる。そして、制御部22は、操作検出処理を終了させる。ここでの移動は、例えば、3次元オブジェクトが重力に従って落下し、床やテーブルの上で停止するように表示される。3次元オブジェクトの動きを停止させる前に、3次元オブジェクトの弾性や床やテーブルの硬度に応じて3次元オブジェクトをバウンドさせてもよい。3次元オブジェクトが床やテーブルに衝突するときの衝撃の大きさを算出し、衝撃が所定の値よりも大きい場合には3次元オブジェクトを破損したように表示してもよい。また、実際の重力が働く場合よりも3次元オブジェクトをゆっくりと移動させてもよい。   When the three-dimensional object is not in the temporary selection state, that is, in the selection state (step SI10, No), the control unit 22 cancels the selection state of the three-dimensional object as step SI13. Moreover, the control part 22 moves the three-dimensional object which canceled the selection state according to gravity etc. as step SI14. Then, the control unit 22 ends the operation detection process. The movement here is displayed, for example, so that the three-dimensional object falls according to gravity and stops on the floor or table. Before stopping the movement of the three-dimensional object, the three-dimensional object may be bounced according to the elasticity of the three-dimensional object and the hardness of the floor or table. The magnitude of impact when the three-dimensional object collides with the floor or table may be calculated, and if the impact is greater than a predetermined value, the three-dimensional object may be displayed as damaged. Further, the three-dimensional object may be moved more slowly than when actual gravity works.

第1の物体と第2の物体の距離が3次元オブジェクトの選択時よりも縮まっている場合(ステップSI09,No)、制御部22は、ステップSI15として、距離に応じて3次元オブジェクトを変形させる。そして、制御部22は、ステップSI01以降を再実行する。3次元オブジェクトを変形させる程度は、例えば、3次元オブジェクトに属性として設定されている硬度に応じて変更してもよい。   When the distance between the first object and the second object is shorter than when the three-dimensional object is selected (step SI09, No), the control unit 22 deforms the three-dimensional object according to the distance as step SI15. . Then, the control unit 22 re-executes step SI01 and subsequent steps. For example, the degree of deformation of the three-dimensional object may be changed according to the hardness set as an attribute of the three-dimensional object.

上述してきたように、第3の例では、指等の物体の間に3次元オブジェクトが位置していることが検出された時点から、操作に応じて3次元オブジェクトを変化させることとしたので、利用者が3次元オブジェクトの選択を認識しやすい。   As described above, in the third example, since it is detected that the three-dimensional object is positioned between objects such as fingers, the three-dimensional object is changed according to the operation. It is easy for the user to recognize the selection of the three-dimensional object.

図35に示すステップS81からステップS83のように、第1の物体と第2の物体のうち少なくとも一方が3次元オブジェクトに接触した後に第1の物体と第2の物体の距離が所定時間以上ほぼ一定に保たれることを、3次元オブジェクトを選択する条件としてもよい。3次元オブジェクトへの接触を選択の条件とすることにより、複数の3次元オブジェクトが近接して表示されている場合に、利用者が所望の3次元オブジェクトを選択し易くなる。   As in Step S81 to Step S83 shown in FIG. 35, after at least one of the first object and the second object comes into contact with the three-dimensional object, the distance between the first object and the second object is approximately equal to or longer than a predetermined time. It may be maintained as a condition for selecting a three-dimensional object. By making contact with a three-dimensional object as a selection condition, it becomes easier for a user to select a desired three-dimensional object when a plurality of three-dimensional objects are displayed close to each other.

上記の実施例において説明した表示装置1は各種の用途に適用できる。操作の対象となる3次元オブジェクト(表示物)は、例えば、本、積み木、スプーン、箸、トランプ、粘土、楽器のように現実に存在するものを模したオブジェクトであってもよいし、仮想のアバター、ゲームのキャラクター、仮想現実のARタグのように実在はしないオブジェクトであってもよい。また、検出された操作に応じて3次元オブジェクトに加えられる変化は、上記の移動、変形、消失、置換等に限定されない。また、押す操作に応じて3次元オブジェクトに加えられる変化は、上記の実施例に限定されず、3次元オブジェクトの種類に応じて変更してよい。   The display device 1 described in the above embodiment can be applied to various uses. The three-dimensional object (display object) to be operated may be an object that imitates an actual object such as a book, a building block, a spoon, a chopstick, a playing card, clay, or a musical instrument, or a virtual object. It may be an object that does not exist, such as an avatar, a game character, or a virtual reality AR tag. Further, the change applied to the three-dimensional object according to the detected operation is not limited to the above movement, deformation, disappearance, replacement, and the like. Further, the change applied to the three-dimensional object according to the pressing operation is not limited to the above-described embodiment, and may be changed according to the type of the three-dimensional object.

例えば、粘土を模した3次元オブジェクト(以下、単に「粘土」という)を操作対象とする場合、押す操作に応じて粘土を変形させて、利用者が粘土を任意の形に成形できるようにしてもよい。また、時間の経過にしたがって、あたかも粘土が乾いていくかのように、粘土を硬化させていってもよい。また、水の3次元オブジェクトに浸けた指や手で粘土を押す操作が検出された場合に、粘土の粘性を向上させてもよい。   For example, when a three-dimensional object imitating clay (hereinafter simply referred to as “clay”) is an operation target, the clay is deformed according to the pressing operation so that the user can shape the clay into an arbitrary shape. Also good. Moreover, the clay may be hardened as if the clay dries over time. Further, when an operation of pushing clay with a finger or hand immersed in a three-dimensional object of water is detected, the viscosity of the clay may be improved.

また、レコード盤を模した3次元オブジェクト(以下、単に「レコード盤」という)を操作対象とする場合、押す操作に応じてレコード盤が支点を中心として回転するとともに、音を再生するようにしてもよい。回転と音の再生を連動させることにより、ディスクジョッキーによるスクラッチ等の技法を仮想的に実現してもよい。   In addition, when a three-dimensional object that imitates a record board (hereinafter simply referred to as “record board”) is an operation target, the record board rotates around a fulcrum and plays a sound according to the pressing operation. Also good. A technique such as scratching by a disc jockey may be virtually realized by linking rotation and sound reproduction.

実施例1では、表示装置が、3次元オブジェクトに対する操作を検出し、検出した操作に応じて3次元オブジェクトに変化を加える方法を説明した。以下の実施例2では、実施例1で説明した方法を、例えば、表計算アプリケーションを3次元の仮想空間で実行する場合に適用する例について説明する。   In the first embodiment, the method in which the display device detects an operation on the three-dimensional object and changes the three-dimensional object according to the detected operation has been described. In Example 2 below, an example will be described in which the method described in Example 1 is applied to, for example, a case where a spreadsheet application is executed in a three-dimensional virtual space.

図36を参照しながら、表示装置1の機能的な構成について説明する。図36は、第2の実施例に係る表示装置1のブロック図である。第2の実施例に係る表示装置1の機能的な構成は、基本的には、第1の実施例(図6)と同様であるが、以下に説明する点が異なる。   The functional configuration of the display device 1 will be described with reference to FIG. FIG. 36 is a block diagram of the display device 1 according to the second embodiment. The functional configuration of the display device 1 according to the second embodiment is basically the same as that of the first embodiment (FIG. 6), except for the points described below.

記憶部24に記憶される制御プログラム24aには、第1の実施例と同様に、検出処理部25と、表示オブジェクト制御部26と、画像合成部27とが含まれる他、さらに、表計算処理部28が含まれる。記憶部24に記憶されるデータには、オブジェクトデータ24bと、作用データ24cと、仮想空間データ24dとが含まれる他、さらに、表計算データ24eが含まれる。   Similar to the first embodiment, the control program 24a stored in the storage unit 24 includes a detection processing unit 25, a display object control unit 26, and an image composition unit 27, and further includes a spreadsheet process. A part 28 is included. The data stored in the storage unit 24 includes object data 24b, action data 24c, and virtual space data 24d, and further includes spreadsheet data 24e.

表計算処理部28は、数値データの集計、演算、および分析などの表計算に関わる処理を実現するための機能を提供する。表計算処理部28は、表計算に関わる処理を行うためのワークシートを表示する。表計算処理部28は、ワークシートに対して検出される操作に応じて、表計算に関わる処理を実現する。ワークシートには、例えば、縦横に格子状のセルが複数配置される。ワークシートに対して検出される操作には、セルに対する操作が含まれる。   The spreadsheet processing unit 28 provides a function for realizing processing related to spreadsheets such as aggregation, calculation, and analysis of numerical data. The spreadsheet processing unit 28 displays a worksheet for performing processing related to the spreadsheet. The spreadsheet processing unit 28 implements processing related to spreadsheets according to operations detected on the worksheet. In the worksheet, for example, a plurality of grid cells are arranged vertically and horizontally. Operations detected on the worksheet include operations on the cells.

図37〜図39を用いて、表計算処理部28が処理内容を決定するためのルールについて説明する。図37は、利用者から見たときの表示空間に表示されるワークシートの状態を示す図である。図38は、表示空間に表示されるワークシートの立体的な位置関係を説明するための図である。図38に示すE1は、利用者の目を示す。   A rule for the spreadsheet processing unit 28 to determine the processing content will be described with reference to FIGS. FIG. 37 is a diagram illustrating a state of the worksheet displayed in the display space when viewed from the user. FIG. 38 is a diagram for explaining the three-dimensional positional relationship of the worksheet displayed in the display space. E1 shown in FIG. 38 indicates the eyes of the user.

図37に示すように、利用者には、ワークシートWS1〜WS4の4つのワークシートが、ワークシートWS1を最前面として重なって見える。つまり、利用者は、図38に示すように、利用者の視線方向α1に並行なZ軸方向に奥行きを持った空間として表示空間50を認識する。そして、図38に示すように、利用者は、利用者から見て1番手前にワークシートWS1があり、ワークシートWS1の1つ背面にワークシートWS2があり、ワークシートWS2の1つ背面にワークシートWS3があり、ワークシートWS3の1つ背面にワークシートWS4があるものと認識する。以下の説明において、Z軸方向と表記する場合は、利用者から表示空間50の奥側に向う方向、及び表示空間50の奥側から利用者に向う方向のどちらにも限定されず、Z軸方向(+)と表記する場合は、利用者から離れて表示空間50の奥側に向う方向であり、3次元座標系の原点へ向う方向とは逆方向を意味するものとする。X軸方向と表記する場合は、少なくとも、X軸に並行な方向であることを意味する。Y軸方向と表記する場合は、少なくとも、Y軸に並行な方向であることを意味する。Y軸方向(+)と表記する場合は、3次元座標系の原点へ向う方向とは逆方向を意味するものとする。Y軸方向(−)と表記する場合は、3次元座標系の原点へ向う方向を意味するものとする。   As shown in FIG. 37, the user sees the four worksheets WS1 to WS4 overlapping with the worksheet WS1 as the forefront. That is, as shown in FIG. 38, the user recognizes the display space 50 as a space having a depth in the Z-axis direction parallel to the user's line-of-sight direction α1. As shown in FIG. 38, the user has the worksheet WS1 in front of the user, the worksheet WS2 is on the back of one of the worksheets WS1, and the worksheet WS2 is on the back of one of the worksheets WS2. It is recognized that there is a worksheet WS3 and that there is a worksheet WS4 on the back of one of the worksheets WS3. In the following description, the Z axis direction is not limited to either the direction from the user toward the back side of the display space 50 or the direction from the back side of the display space 50 toward the user. The notation of the direction (+) means a direction away from the user toward the back side of the display space 50, and means a direction opposite to the direction toward the origin of the three-dimensional coordinate system. Reference to the X-axis direction means at least the direction parallel to the X-axis. The expression “Y-axis direction” means at least a direction parallel to the Y-axis. When expressed as the Y-axis direction (+), it means the direction opposite to the direction toward the origin of the three-dimensional coordinate system. When expressed as the Y-axis direction (−), it means a direction toward the origin of the three-dimensional coordinate system.

図39は、ワークシートに対して検出される操作と、表計算に関わる処理に含まれる処理項目とが予め対応付けられた処理項目決定ルールの例を示す図である。表計算処理部28は、ワークシートに対して検出される操作に応じて実行すべき処理項目を、図39に示す処理項目決定ルールに基づいて決定し、決定した処理項目の処理を実行する。   FIG. 39 is a diagram illustrating an example of a process item determination rule in which an operation detected for a worksheet is associated with a process item included in a process related to a spreadsheet. The spreadsheet processing unit 28 determines a processing item to be executed according to the operation detected on the worksheet based on the processing item determination rule shown in FIG. 39, and executes the processing of the determined processing item.

図39に示すNo.1のルールには、「指がZ軸方向へ移動させる」という検出操作と、「指の位置に対応するワークシートを処理が有効な状態に切替」という処理項目とが対応付けられている。   No. shown in FIG. The first rule is associated with a detection operation of “move the finger in the Z-axis direction” and a processing item of “switch the worksheet corresponding to the position of the finger to a valid processing state”.

図39に示すNo.2のルールには、「ワークシートを手のひらで押す」という検出操作と、「対応するワークシートのデータを消去」という処理項目とが対応付けられている。   No. shown in FIG. The rule No. 2 is associated with a detection operation of “pressing the worksheet with the palm” and a processing item of “deleting data of the corresponding worksheet”.

図39に示すNo.3のルールには、「セルを摘んでZ軸方向へ移動させる」という検出操作と、「摘まれたセルのデータを、他のワークシートの対応するセルへ上書き」という処理項目とが対応付けられている。   No. shown in FIG. The rule 3 is associated with the detection operation “pick the cell and move it in the Z-axis direction” and the processing item “overwrite the data of the picked cell to the corresponding cell in another worksheet”. It has been.

図39に示すNo.4のルールには、「摘んだ2つのセルをX軸方向に移動させて衝突させる」という検出処理と、「セルの数値データ同士を乗算」という処理項目とが対応付けられている。   No. shown in FIG. The rule No. 4 is associated with a detection process of “move two picked cells in the X-axis direction to collide” and a processing item of “multiply numerical data of cells”.

図39に示すNo.5のルールには、「摘んだ2つのセルをY軸方向に移動させて衝突させる」という検出操作と、「Y軸方向(+)のセルの数値データをY軸方向(−)のセルの数値データで除算」という処理項目とが対応付けられている。   No. shown in FIG. The rule No. 5 includes a detection operation of “moving two picked cells in the Y-axis direction and causing them to collide” and “numerical data in cells in the Y-axis direction (+)” A processing item “division by numerical data” is associated with the processing item.

図39に示すNo.6のルールには、「ワークシートの切れ端を重ね合わせる」という検出操作と、「切れ端に対応するセルのデータを消去し、切れ端が重ねあわされたワークシートのセルのデータを更新」という処理項目とが対応付けられている。   No. shown in FIG. The rule of No. 6 includes a detection operation of “superimposing pieces of worksheet” and a processing item of “erasing cell data corresponding to pieces and updating data of worksheet cells with pieces overlapped”. Are associated with each other.

図39に示すNo.7のルールには、「2本の指が開いた状態から移動させて互いに接触させる」という検出操作と、「移動前に2本の指で囲まれていたセルの情報の削除」という処理項目とが対応付けられている。   No. shown in FIG. The rule No. 7 includes a detection operation of “moving two fingers from an open state and bringing them into contact with each other” and a processing item of “deleting cell information surrounded by two fingers before moving”. Are associated with each other.

図39に示すNo.8のルールには、「2本の指が開いた状態のまま移動させる」という検出操作と、「移動前に2本の指で囲まれていたセルの情報を移動後に2本の指で囲まれているセルにコピー」という処理とが対応付けられている。   No. shown in FIG. The rule No. 8 includes a detection operation of “move with two fingers open” and “enclose cell information surrounded by two fingers before moving with two fingers after moving” Is associated with the process of “copy to the cell in question”.

図39に示すNo.9のルールには、「セルを摘んでX軸方向へ移動させる」という検出操作と、「摘まれたワークシートの背面にあるワークシートを視認可能な状態に変更」という処理とが対応付けられている。   No. shown in FIG. The rule No. 9 is associated with the detection operation “pick the cell and move it in the X-axis direction” and the process “change the worksheet on the back of the picked worksheet to a visible state”. ing.

図39に示す処理項目決定ルールは、一例を示すものに過ぎず、図39に示す例のほかにも、検出される操作の種類、操作に対応付ける処理の内容を追加、変更、削除してもよい。   The process item determination rule shown in FIG. 39 is merely an example, and in addition to the example shown in FIG. 39, the type of operation to be detected and the content of the process associated with the operation may be added, changed, or deleted. Good.

ワークシートに対して検出される操作に応じたワークシートの表示態様の変化は、検出処理部25、表示オブジェクト制御部26、及び画像合成部27により提供される機能、及びオブジェクトデータ24b、作用データ24c、及び仮想空間データ24dに基づいて実現される。   The change of the display mode of the worksheet according to the operation detected for the worksheet is the function provided by the detection processing unit 25, the display object control unit 26, and the image composition unit 27, the object data 24b, the action data. 24c and virtual space data 24d.

検出処理部25は、第1の実施例と同様に、撮影部40および42の撮影範囲に存在する現実の物体を検出するための機能を提供する。検出処理部25が提供する機能には、検出したそれぞれの物体までの距離を測定する機能が含まれる。第2の実施例では、検出処理部25は、主に、利用者の手または指を検出し、検出した利用者の手または指までの距離を測定する。   Similar to the first embodiment, the detection processing unit 25 provides a function for detecting an actual object existing in the imaging range of the imaging units 40 and 42. The function provided by the detection processing unit 25 includes a function of measuring the distance to each detected object. In the second embodiment, the detection processing unit 25 mainly detects the user's hand or finger and measures the distance to the detected user's hand or finger.

表示オブジェクト制御部26は、第1の実施例と同様に、仮想空間にどのような3次元オブジェクトが配置され、それぞれの3次元オブジェクトがどのような状態にあるかを管理するための機能を提供する。表示オブジェクト制御部26が提供する機能には、検出処理部25の機能によって検出される現実の物体の動きに基づいて3次元オブジェクトに対する操作を検出し、検出した操作に基づいて3次元オブジェクトを変化させる機能が含まれる。第2の実施例では、表示オブジェクト制御部26は、主に、検出処理部25の機能によって検出される利用者の手の動きに基づいてワークシートに対する操作を検出し、検出した操作に基づいてワークシートの表示態様を変化させる。   The display object control unit 26 provides a function for managing what three-dimensional objects are arranged in the virtual space and in what state each three-dimensional object is in the same manner as in the first embodiment. To do. The functions provided by the display object control unit 26 include detecting an operation on a three-dimensional object based on the movement of an actual object detected by the function of the detection processing unit 25, and changing the three-dimensional object based on the detected operation. The function to be included is included. In the second embodiment, the display object control unit 26 mainly detects an operation on the worksheet based on the movement of the user's hand detected by the function of the detection processing unit 25, and based on the detected operation. Change the display mode of the worksheet.

画像合成部27は、第1の実施例と同様に、現実の空間の画像と仮想空間の画像とを合成することにより、表示部32aに表示する画像と表示部32bに表示する画像とを生成するための機能を提供する。画像合成部27が提供する機能には、検出処理部25の機能によって測定される現実の物体までの距離と、仮想空間における視点から3次元オブジェクトまでの距離とに基づいて、現実の物体と3次元オブジェクトの前後関係を判定し、重なりを調整する機能が含まれる。第2の実施例では、画像合成部27は、主に、検出処理部25の機能によって検出される利用者の手までの距離と、仮想空間における視点からワークシートまでの距離とに基づいて、利用者の手とワークシートの前後関係を判定し、重なりを調整する。   As in the first embodiment, the image composition unit 27 generates an image to be displayed on the display unit 32a and an image to be displayed on the display unit 32b by synthesizing the image in the real space and the image in the virtual space. Provide the function to do. The function provided by the image compositing unit 27 includes the real object and 3 based on the distance to the real object measured by the function of the detection processing unit 25 and the distance from the viewpoint to the three-dimensional object in the virtual space. A function to determine the context of the dimension object and adjust the overlap is included. In the second embodiment, the image composition unit 27 is mainly based on the distance to the user's hand detected by the function of the detection processing unit 25 and the distance from the viewpoint in the virtual space to the worksheet. Determine the context of the user's hand and the worksheet and adjust the overlap.

オブジェクトデータ24bは、第2の実施例では、例えば、ワークシートを3次元オブジェクトとして表示するために用いられる。オブジェクトデータ24bには、第2の実施例において、ワークシートの種別、形状情報、色、透明度等を含む情報が格納される。種別は、ワークシートの物理的な性質を示す。種別は、例えば、「剛体」、「弾性体」等の値をとる。形状情報は、ワークシートの形状を示す情報である。形状情報は、例えば、ワークシートを構成する面の頂点座標の集合である。色は、ワークシートの表面の色、あるいは色の構成である。透明度は、ワークシートが光を透過させる度合いである。   In the second embodiment, the object data 24b is used, for example, for displaying a worksheet as a three-dimensional object. In the second embodiment, the object data 24b stores information including the worksheet type, shape information, color, transparency, and the like. The type indicates the physical property of the worksheet. The type takes values such as “rigid body” and “elastic body”, for example. The shape information is information indicating the shape of the worksheet. The shape information is, for example, a set of vertex coordinates of the surfaces constituting the worksheet. The color is the color of the surface of the worksheet or the composition of the colors. Transparency is the degree to which the worksheet transmits light.

作用データ24cは、第2の実施例では、3次元オブジェクトとして表示されるワークシートに対する操作が検出された場合に、ワークシートの表示態様をどのように変化させるかを判定するために用いられる。ここでいう変化には、ワークシートの表示切替、消失、置換、移動、回転、変形、及びワークシート上のセルの消失、複製、拡大、縮小、変形等が含まれる。ワークシートの置換は、例えば、あるワークシート上の第1のセルと、別のワークシート上の第2のセルとをぶつけるような動作をすることで実行されてもよい。また、第1のセルと、第2のセルとをぶつけるような動作をすることで、第1のセルに記載された数値と、第2のセルに記載された数値とを演算(乗算または除算)したり、これに換えて、双方のセルに記載された数値を入れ替えたりするようにしてもよい。   In the second embodiment, the action data 24c is used to determine how to change the display mode of the worksheet when an operation on the worksheet displayed as a three-dimensional object is detected. Such changes include worksheet display switching, disappearance, replacement, movement, rotation, deformation, and disappearance, duplication, enlargement, reduction, deformation, and the like of cells on the worksheet. For example, the replacement of the worksheet may be performed by performing an operation of hitting a first cell on a certain worksheet and a second cell on another worksheet. In addition, by performing an operation of colliding the first cell and the second cell, the numerical value described in the first cell and the numerical value described in the second cell are calculated (multiplication or division). ), Or in place of this, the numerical values described in both cells may be exchanged.

仮想空間データ24dは、第2の実施例では、3次元オブジェクトとして表示されるワークシートの状態に関する情報を保持する。ワークシートの状態には、例えば、位置、姿勢、変形の状況等が含まれる。   In the second embodiment, the virtual space data 24d holds information related to the state of the worksheet displayed as a three-dimensional object. The worksheet state includes, for example, a position, a posture, a deformation state, and the like.

表計算データ24eは、ワークシートの構成情報、ワークシートに保持されているデータ、表計算処理部28によりワークシート上で実行される各種処理に関するデータを記憶する。   The spreadsheet data 24e stores worksheet configuration information, data held in the worksheet, and data related to various processes executed on the worksheet by the spreadsheet processing unit 28.

以下、第2の実施例に係る制御プログラム24aが提供する機能に基づく種々の制御について説明する。第2の実施例に係る制御プログラム24aが提供する機能に基づく種々の制御には、ワークシートに対して検出される操作に応じて前記ルールにより決定される表計算に関わる処理を実行する制御、及びワークシートに対して検出される操作に応じてワークシートの表示態様を変化させる制御が含まれる。   Hereinafter, various controls based on the functions provided by the control program 24a according to the second embodiment will be described. Various controls based on the functions provided by the control program 24a according to the second embodiment include a control for executing a process related to a spreadsheet determined by the rule according to an operation detected for the worksheet, And control for changing the display mode of the worksheet in accordance with an operation detected for the worksheet.

図40は、第2の実施例に係る画像の合成について説明するための図である。画像P1cは、撮影部40によって得られる画像、すなわち、現実の空間を右目で見た光景に相当する画像である。画像P1cには、利用者の手H1が写っている。画像P1cでは、説明の便宜上、利用者の手H1以外の画像については図示を省略する。表示装置1は、同じ場面を撮影部42によって撮影した画像、すなわち、現実の空間を左目で見た光景に相当する画像も取得する。   FIG. 40 is a diagram for explaining image composition according to the second embodiment. The image P1c is an image obtained by the photographing unit 40, that is, an image corresponding to a sight of a real space viewed with the right eye. The user's hand H1 is shown in the image P1c. In the image P1c, illustration of images other than the user's hand H1 is omitted for convenience of explanation. The display device 1 also acquires an image obtained by photographing the same scene by the photographing unit 42, that is, an image corresponding to a sight when the real space is viewed with the left eye.

画像P2cは、仮想空間データ24dおよびオブジェクトデータ24bに基づいて生成される右目用の画像である。表示装置1は、これらの情報に基づいて仮想空間を再現し、再現した仮想空間を右目の視点から見た画像P2cを生成する。仮想空間における右目(視点)の位置は、所定の規則に基づいて決定される。表示装置1は、同様に、再現した仮想空間を左目の視点で見た画像も生成する。すなわち、表示装置1は、画像P2cと組み合わせることによって、ワークシートが3次元的に表示される画像も生成する。   The image P2c is a right-eye image generated based on the virtual space data 24d and the object data 24b. The display device 1 reproduces the virtual space based on these pieces of information, and generates an image P2c obtained by viewing the reproduced virtual space from the viewpoint of the right eye. The position of the right eye (viewpoint) in the virtual space is determined based on a predetermined rule. Similarly, the display device 1 also generates an image obtained by viewing the reproduced virtual space from the viewpoint of the left eye. That is, the display device 1 also generates an image in which the worksheet is displayed three-dimensionally by combining with the image P2c.

表示装置1は、図40に示すように、画像P1cおよび画像P2cを合成して、画像P3cを生成する。画像P3cは、右目用の画像として表示部32aに表示される画像である。このとき、表示装置1は、利用者の右目の位置を基準として、撮影部40の撮影範囲に現実の物体として存在する利用者の手H1と、仮想空間内に3次元オブジェクトとして存在するワークシートとの前後関係を判定する。そして、表示装置1は、利用者の手H1とワークシートとが重なっている場合には、利用者の右目により近いものが前面に見えるように重なりを調整する。このような重なりの調整は、第1の実施例と同様の方法で行われる。   As illustrated in FIG. 40, the display device 1 combines the image P1c and the image P2c to generate an image P3c. The image P3c is an image displayed on the display unit 32a as a right-eye image. At this time, the display device 1 uses the user's right eye position as a reference, the user's hand H1 that exists as a real object in the shooting range of the shooting unit 40, and a worksheet that exists as a three-dimensional object in the virtual space. To determine the context. Then, when the user's hand H1 and the worksheet overlap, the display device 1 adjusts the overlap so that an object closer to the user's right eye can be seen in the front. Such overlap adjustment is performed in the same manner as in the first embodiment.

重なりの調整により、図40に示すように、ワークシートWS1〜WS4の4つのワークシートが空中に存在し、ワークシートWS1の上に利用者の手H1が置かれているかのような画像P3cが得られている。表示装置1は、同様の処理により、撮影部42によって撮影した画像と仮想空間を左目の視点から見た画像とを合成し、左目用の画像として表示部32bに表示される画像を生成する。左目用の画像を生成する場合、利用者の手H1とワークシートとの重なりは、利用者の左目の位置を基準として調整される。   By adjusting the overlap, as shown in FIG. 40, there are four worksheets WS1 to WS4 in the air and an image P3c as if the user's hand H1 is placed on the worksheet WS1. Has been obtained. The display device 1 generates an image displayed on the display unit 32b as an image for the left eye by synthesizing the image captured by the imaging unit 42 and the image obtained by viewing the virtual space from the viewpoint of the left eye by the same processing. When generating an image for the left eye, the overlap between the user's hand H1 and the worksheet is adjusted based on the position of the user's left eye.

表示装置1は、こうして生成した合成画像を表示部32aおよび32bに表示する。その結果、利用者は、利用者の視線方向α1に並行なZ軸方向に奥行きを持った表示空間50(図38参照)を認識し、利用者から見て1番手前にワークシートWS1、ワークシートWS1の1つ背面にワークシートWS2、ワークシートWS2の1つ背面にワークシートWS3、ワークシートWS3の1つ背面にワークシートWS4が空中に浮かんでいるかのような光景を見ることができる。   The display device 1 displays the composite image thus generated on the display units 32a and 32b. As a result, the user recognizes the display space 50 (see FIG. 38) having a depth in the Z-axis direction parallel to the user's line-of-sight direction α1, and displays the worksheet WS1 and the workpiece WS1 in front of the user. A scene as if the work sheet WS2 is floating in the air can be seen on the back surface of one of the sheets WS1, the work sheet WS2 on one back surface of the work sheet WS2, and the back surface of one of the work sheets WS3.

次に、図41及び図42を用いて、Z軸方向に移動するユーザの指の位置に応じて、ユーザに視認可能なワークシートの切替について説明する。図41は、利用者の指とワークシートとの位置関係を示す図である。図42は、図41のステップS92に対応するワークシートの表示例を示す図である。   Next, with reference to FIGS. 41 and 42, switching of the worksheet that can be visually recognized by the user according to the position of the user's finger moving in the Z-axis direction will be described. FIG. 41 is a diagram illustrating a positional relationship between the user's finger and the worksheet. FIG. 42 is a diagram showing a display example of the worksheet corresponding to step S92 in FIG.

例えば、表示装置1は、図41のステップS91に示すように、利用者の指F1が、Z軸方向を基準として、ワークシートWS1よりも上にある場合には、表示空間50に、ワークシートWS1を利用者が視認可能な状態で立体的に表示する(例えば、図40参照)。   For example, as shown in step S91 in FIG. 41, the display device 1 displays the worksheet in the display space 50 when the user's finger F1 is above the worksheet WS1 with respect to the Z-axis direction. WS1 is displayed three-dimensionally in a state where the user can visually recognize the WS1 (see, for example, FIG. 40).

表示装置1は、図41のステップS92に示すように、利用者の指F1がZ軸方向(+)に移動して、移動後の利用者の指F1が、ワークシートWS3とワークシートWS4との間に位置する場合には、表示空間50に、ワークシートWS4を利用者に視認可能な状態で立体的に表示する。例えば、図42に示すように、表示装置1は、ワークシートWS4(図40参照)が、ワークシートWS1〜WS3(図40参照)を透過してみえているかのように、ワークシートWS4のみを利用者に視認可能な状態で表示させる。具体的には、表示装置1は、例えば、利用者の指F1が、ワークシートWS3とワークシートWS4との間に所定時間以上継続して位置する場合には、Z軸方向(+)を基準として、ワークシートWS3よりも下にあるワークシートWS4を視認可能な状態に表示することを決定する。   As shown in step S92 in FIG. 41, the display device 1 moves the user's finger F1 in the Z-axis direction (+), and moves the user's finger F1 to the worksheet WS3 and the worksheet WS4. If it is located between the two, the worksheet WS4 is displayed in a three-dimensional manner in the display space 50 so as to be visible to the user. For example, as shown in FIG. 42, the display device 1 displays only the worksheet WS4 as if the worksheet WS4 (see FIG. 40) is seen through the worksheets WS1 to WS3 (see FIG. 40). Display in a state that is visible to the user. Specifically, for example, when the user's finger F1 continues to be positioned between the worksheet WS3 and the worksheet WS4 for a predetermined time or longer, the display device 1 uses the Z-axis direction (+) as a reference. It is determined that the worksheet WS4 below the worksheet WS3 is displayed in a visible state.

同時に、表示装置1は、図39に示すルールNo.1に基づいて、表計算データ25eに記憶されているデータを更新する。すなわち、表示装置1は、視認可能な状態に表示するワークシートWS4を処理が有効な状態に切替える処理を実行する。   At the same time, the display device 1 displays the rule No. 1 shown in FIG. Based on 1, the data stored in the spreadsheet data 25e is updated. That is, the display device 1 executes a process of switching the worksheet WS4 displayed in a visually recognizable state to a valid process state.

次に、ワークシートの消失について説明する。図43は、ワークシートの消失について説明するための図である。図43に示すように、表示装置1は、例えば、ワークシートWS1を手H1のひらで押す操作を検出した場合には(ステップS101)、手H1のひらで押す操作が検出されたワークシートWS1を表示空間50から消失させる(ステップS102)。具体的には、表示装置1は、例えば、Z軸方向(+)に移動する利用者の手H1のひらが、ワークシートWS1を通過する場合には、ワークシートWS1を消失させることを決定する。   Next, the disappearance of the worksheet will be described. FIG. 43 is a diagram for explaining the disappearance of the worksheet. As shown in FIG. 43, for example, when the display device 1 detects an operation of pushing the worksheet WS1 with the palm of the hand H1 (step S101), the worksheet WS1 in which the operation of pushing the palm of the hand H1 is detected. Disappears from the display space 50 (step S102). Specifically, for example, when the palm of the user's hand H1 moving in the Z-axis direction (+) passes through the worksheet WS1, the display device 1 determines to erase the worksheet WS1. .

表示装置1は、手のひらで押す操作のZ軸方向(+)の移動距離に応じて、複数枚のワークシートを表示空間50から一度に消失させてもよい。具体的には、表示装置1は、例えば、Z軸方向(+)に移動する利用者の手H1のひらが、ワークシートWS1およびワークシートWS2を通過する場合には、ワークシートWS1及びワークシートWS2を消失させることを決定する。表示装置1が、ワークシートを消失させる利用者の操作として採用する手のひらで押す操作は、ワークシートを消失させる操作の一例であり、これには限定されない。   The display device 1 may erase a plurality of worksheets from the display space 50 at a time according to the movement distance in the Z-axis direction (+) of the operation of pushing with the palm. Specifically, for example, when the palm of the user's hand H1 moving in the Z-axis direction (+) passes through the worksheet WS1 and the worksheet WS2, the display device 1 displays the worksheet WS1 and the worksheet. Decide to eliminate WS2. The operation that the display device 1 pushes with the palm adopted as the user's operation for erasing the worksheet is an example of the operation for erasing the worksheet, and is not limited thereto.

同時に、表示装置1は、図39に示すルールNo.2に基づいて、表計算データ25eに記憶されているデータを更新する。すなわち、表示装置1は、消失させるワークシートのデータを表計算データ25eから消去する処理を実行する。   At the same time, the display device 1 displays the rule No. 1 shown in FIG. Based on 2, the data stored in the spreadsheet data 25e is updated. That is, the display device 1 executes a process of deleting the worksheet data to be deleted from the spreadsheet data 25e.

次に、ワークシート間で行われるセルコピーについて説明する。図44は、複数のワークシート間で行われるセルコピーの例を示す図である。図44に示す例では、ワークシートWS2〜WS4が縦横ずれることなく、重ねあわされているものとする。   Next, cell copying performed between worksheets will be described. FIG. 44 is a diagram illustrating an example of cell copy performed between a plurality of worksheets. In the example shown in FIG. 44, it is assumed that the worksheets WS2 to WS4 are overlapped without being shifted vertically and horizontally.

図44に示すように、表示装置1は、ワークシートWS1のセルC1を手H1で摘んだままの状態で、Z軸方向(+)へ移動させるような操作を検出した場合には、移動する手H1の進行に合わせて、セルC1に記入されているデータと同一のデータを、ワークシートWS2〜WS4の対応するセルにコピーされたかのように表示させる。図44に示す例では、表示装置1は、ワークシートWS1のセルC1の座標(X,Y)=(3,3)に対応するワークシートWS2のセルC2、ワークシートWS3のセルC3、ワークシートWS4のセルC4に、セルC1に表示されているデータと同一のデータをコピーされたかのように表示させる。表示装置1は、第1の実施例で説明した方法と同様の方法を用いて、セルが摘ままれている状態にあるかどうかを判定する。具体的には、表示装置1は、表示空間50で利用者の2つの指を2つの現実の物体として検出し、かつ、利用者の2つの指の間にセルが位置する状態が所定時間以上継続した場合、該当のセルが選択されたものと判定する。   As shown in FIG. 44, the display device 1 moves when it detects an operation that moves the cell C1 of the worksheet WS1 with the hand H1 in the Z-axis direction (+). As the hand H1 progresses, the same data as the data written in the cell C1 is displayed as if it were copied to the corresponding cells of the worksheets WS2 to WS4. In the example shown in FIG. 44, the display device 1 includes the cell C2 of the worksheet WS2, the cell C3 of the worksheet WS3, the worksheet corresponding to the coordinates (X, Y) = (3, 3) of the cell C1 of the worksheet WS1. The same data as the data displayed in the cell C1 is displayed in the cell C4 of WS4 as if it were copied. The display device 1 determines whether or not the cell is in a state of being picked using a method similar to the method described in the first embodiment. Specifically, the display device 1 detects the user's two fingers as two real objects in the display space 50, and the state where the cell is positioned between the two fingers of the user is equal to or longer than a predetermined time. When continuing, it determines with the applicable cell having been selected.

同時に、表示装置1は、図39に示すルールNo.3に基づいて、表計算データ24eに記憶されているデータを更新する。すなわち、表示装置1は、例えば、ワークシートWS1の座標(X,Y)=(3,3)の位置に配置されているセルについて記憶されている数値データを、ワークシートWS2〜ワークシートWS4の座標(X,Y)=(3,3)の位置に配置されているセルのデータとして上書きする。表計算データ24eには、同一のワークシート上にあるセルのZ座標として同一の値が予め管理されているものとする。表示装置1は、セルのデータを上書きするときに、同一のワークシート上にあるセルのZ座標として同一の値を表計算データ24eに書き込む。   At the same time, the display device 1 displays the rule No. 1 shown in FIG. 3, the data stored in the spreadsheet data 24e is updated. That is, the display device 1 uses, for example, the numerical data stored for the cell arranged at the position of the coordinates (X, Y) = (3, 3) of the worksheet WS1 as the worksheet WS2 to the worksheet WS4. It is overwritten as the data of the cell arranged at the position of coordinates (X, Y) = (3, 3). In the spreadsheet data 24e, it is assumed that the same value is managed in advance as the Z coordinate of a cell on the same worksheet. When overwriting the cell data, the display device 1 writes the same value in the spreadsheet data 24e as the Z coordinate of the cell on the same worksheet.

表示装置1は、検出される操作に応じて、セルデータのコピーであるか、セルデータの移動であるかを区別できるようにしてもよい。例えば、表示装置1は、一方の手でワークシートを抑えつつ、他方の手で特定のセルを摘んで移動させる操作を検出した場合には、セルの移動であると判定する。この場合には、表示装置1は、移動元のセルに記入されているデータを消失させ、移動先のセルに移動元のセルに記入されているデータがコピーされたかのように表示させる。同時に、表示装置1は、表計算データ24eに記憶されているデータのうち、移動元のセルデータを消去し、移動先のセルデータを移動元のセルデータで上書きする。   The display device 1 may be able to distinguish whether it is a copy of cell data or a move of cell data according to the detected operation. For example, the display device 1 determines that the movement of the cell is detected when an operation of holding and moving a specific cell with the other hand while holding the worksheet with one hand is detected. In this case, the display device 1 erases the data entered in the source cell and displays the data as if the data entered in the source cell is copied to the destination cell. At the same time, the display device 1 erases the source cell data from the data stored in the spreadsheet data 24e, and overwrites the destination cell data with the source cell data.

次に、ワークシートに表示されているデータの切替について説明する。図45〜図49は、ワークシートに表示されているデータの切替について説明するための図である。   Next, switching of data displayed on the worksheet will be described. 45 to 49 are diagrams for explaining switching of data displayed on the worksheet.

例えば、図45に示すように、ワークシートWS1〜ワークシートWS40まで40枚のワークシートが重ねられた状態で表示されている。ワークシートWS1〜ワークシートWS40には、それぞれ、ある生徒1人の成績のみが記入された状態にあるものとする。成績は、例えば、国語、算数、理科、社会、英語の5科目のものとする。ワークシートWS1が視認可能な状態で表示されているものとする。   For example, as shown in FIG. 45, forty sheets of worksheets WS1 to WS40 are displayed in a stacked state. Each of the worksheets WS1 to WS40 is in a state where only the grade of one student is entered. The grades are, for example, five subjects: Japanese language, arithmetic, science, society, and English. It is assumed that the worksheet WS1 is displayed in a visible state.

続いて、図46に示すように、例えば、X軸を中心として、ワークシートWS1を回転させる操作を検出した場合には、表示装置1は、図47のステップS111に示すように、ある生徒の5科目の成績のみを表示している状態から、図47のステップS112に示すように、40人の生徒全員の国語の成績を表示する状態に切替える。すなわち、表示装置1は、データが縦一例に並んでいる場合には、X軸を中心とする回転操作を検出して、ワークシートに記入されているデータの表示を切替える。例えば、表示装置1は、X軸を中心としてワークシートを回転させるための利用者の指の動きを予め記憶しておき、該当する利用者の動きを検出を検出した場合には、視認可能な状態で表示されているワークシートを、X軸を中心としてワークシートを回転させる。   Subsequently, as shown in FIG. 46, for example, when an operation of rotating the worksheet WS1 around the X axis is detected, the display device 1 displays a certain student's as shown in step S111 in FIG. From the state in which only the grades of five subjects are displayed, as shown in step S112 in FIG. 47, the state is switched to a state in which the grades in the language of all 40 students are displayed. That is, when the data is arranged in a vertical example, the display device 1 detects a rotation operation around the X axis and switches the display of data written on the worksheet. For example, the display device 1 stores in advance the movement of the user's finger for rotating the worksheet around the X axis, and can be visually recognized when detection of the corresponding user's movement is detected. The worksheet displayed in the state is rotated around the X axis.

あるいは、図48に示すように、例えば、Y軸を中心として、ワークシートWS1を回転させる操作を検出した場合には、表示装置1は、図49のステップS121に示すように、ある生徒の5科目の成績のみを表示している状態から、図49のステップS122に示すように、40人の生徒全員の国語の成績を表示する状態に切替える。すなわち、表示装置1は、データが横一例に並んでいる場合には、Y軸を中心とする回転操作を検出して、ワークシートに記入されているデータの表示を切替える。例えば、表示装置1は、Y軸を中心としてワークシートを回転させるための利用者の指の動きを予め記憶しておき、該当する利用者の動きを検出を検出した場合には、視認可能な状態で表示されているワークシートを、Y軸を中心としてワークシートを回転させる。   Alternatively, as shown in FIG. 48, for example, when an operation of rotating the worksheet WS1 about the Y axis is detected, the display device 1 displays 5 of a student as shown in step S121 of FIG. As shown in step S122 of FIG. 49, the state where only the grades of the subject are displayed is switched to the state where the grades of all the 40 students are displayed. That is, when the data is arranged in a horizontal example, the display device 1 detects a rotation operation around the Y axis and switches the display of data written on the worksheet. For example, the display device 1 stores in advance the movement of the user's finger for rotating the worksheet around the Y axis, and can be visually recognized when detection of the corresponding user's movement is detected. The worksheet displayed in the state is rotated around the Y axis.

図47及び図49に示す制御の例には限定されない。例えば、図47に示す例において、表示装置1は、40人の生徒全員の国語の成績を表示した後、さらに、X軸を中心として、ワークシートを回転させる操作を検出するたびに、数学、理科、社会、英語の40人の生徒全員の成績を表示してもよい。そして、40人の生徒全員の国語の成績を表示した後、さらに、X軸を中心として、ワークシートを回転させる操作を検出した場合には、表示装置1は、再び、図47のステップS101に示すように、ある生徒の5科目の成績を表示している状態に戻してもよい。あるいは、表示装置1は、X軸を中心として、ワークシートを回転させる操作を検出するたびに、別の生徒の5科目の成績を表示するようにしてもよい。あるいは、図47に示すように、データが縦一例に並んでいる状態で、Y軸を中心とする回転操作を検出した場合に、表示装置1は、別の生徒の5科目の成績を表示するようにしてもよい。図49に示す場合も同様である。   The example of control shown in FIGS. 47 and 49 is not limited. For example, in the example shown in FIG. 47, the display device 1 displays the results of all the 40 students in Japanese, and each time it detects an operation of rotating the worksheet around the X axis, The grades of all 40 students in science, society and English may be displayed. Then, after displaying the results in the Japanese language of all 40 students, and further detecting an operation of rotating the worksheet around the X axis, the display device 1 again returns to step S101 in FIG. As shown, a student may return to a state in which the grades of five subjects are displayed. Alternatively, the display device 1 may display the results of five subjects of another student each time an operation for rotating the worksheet around the X axis is detected. Alternatively, as illustrated in FIG. 47, when a rotation operation centered on the Y axis is detected in a state where data is arranged in a vertical example, the display device 1 displays the results of five subjects of another student. You may do it. The same applies to the case shown in FIG.

次に、表示装置1は、ワークシート間で行われる演算について説明する。図50は、ワークシート間で行われる演算を説明するための図である。図50のステップS121に示すように、表示装置1は、まず、ワークシートWS1に対して、演算種別と、演算結果を埋め込まれるセルC5の設定を受け付ける。続いて、表示装置1は、利用者の右手HR1がワークシートWS1のセルC6を摘み、利用者の左手HL1がワークシートWS2のセルC7を摘んで(ステップS121)、セルC6とセルC7とをX軸方向に衝突させるように動かす操作を検出すると(ステップS122)、セルC5とセルC6とが衝突するタイミングで双方のセルを消失させる。そして、セルを消失させるタイミングにあわせて、表示装置1は、ワークシートWS1のセルC5に演算結果を表示させる(ステップS123)。例えば、表示装置1は、セル同士をX軸方向に衝突させる場合、乗算なので(図39参照)、「21」をセルC5に表示させる。例えば、表示装置1は、セル同士をY軸方向に衝突させる場合には、除算なので(図39参照)、除算の結果をセルC5に表示させることになる。表示装置1は、セル同士をY軸方向に衝突させる際、Y軸方向(+)側にセルC6があり、Y軸方向(−)側にセルC7がある場合には、セルC6の数値データをセルC7の数値データで除算する。セルの演算は、以下に説明するように、例えば、図50の制御のバックグラウンドにて並列に実行されているものとする。   Next, the display device 1 will explain operations performed between worksheets. FIG. 50 is a diagram for explaining calculation performed between worksheets. As shown in step S121 of FIG. 50, the display device 1 first accepts the setting of the calculation type and the cell C5 in which the calculation result is embedded, for the worksheet WS1. Subsequently, in the display device 1, the user's right hand HR1 picks the cell C6 of the worksheet WS1, the user's left hand HL1 picks the cell C7 of the worksheet WS2 (step S121), and the cells C6 and C7 are moved. When an operation of moving the cell so as to collide in the X-axis direction is detected (step S122), both cells disappear at the timing when the cell C5 and the cell C6 collide. Then, in accordance with the timing at which the cell disappears, the display device 1 displays the calculation result in the cell C5 of the worksheet WS1 (step S123). For example, when the cells collide with each other in the X-axis direction, the display device 1 displays “21” in the cell C5 because it is multiplication (see FIG. 39). For example, when the display device 1 collides the cells in the Y-axis direction, since it is division (see FIG. 39), the division result is displayed in the cell C5. When the display device 1 collides the cells in the Y-axis direction, if the cell C6 is on the Y-axis direction (+) side and the cell C7 is on the Y-axis direction (−) side, the numerical data of the cell C6 Is divided by the numerical data of cell C7. As will be described below, it is assumed that the cell operations are executed in parallel in the control background of FIG. 50, for example.

表示装置1は、図39に示すルールNo.4に基づいて演算を行い、演算結果により表計算データ24eに記憶されているデータを更新する。すなわち、表示装置1は、ワークシートWS1のセルC5に対応する数値データを更新する。   The display device 1 has a rule No. shown in FIG. 4 is calculated, and the data stored in the spreadsheet data 24e is updated with the calculation result. That is, the display device 1 updates the numerical data corresponding to the cell C5 of the worksheet WS1.

次に、ワークシートを破る場合について説明する。図51は、ワークシートを破る例を説明するための図である。図51に示すように、利用者の右手HR1がワークシートWS1の特定のセルを摘み、利用者の左手HL1がワークシートWS1を抑えた状態で、右手HR1を移動させる操作を検出すると(ステップS141)、表示装置1は、利用者の右手HR1の位置にある特定のセルからワークシートWS1が破かれているかのように表示してもよい(ステップS142)。表示装置1は、セル単位で切れ端が切り取られるようにしてもよい。表示装置1は、破かれたワークシートWS1の切れ端を他のシートに重ねる操作を検出した場合には、切れ端が他のシートに吸収されたかのように表示してもよい。   Next, a case where the worksheet is broken will be described. FIG. 51 is a diagram for explaining an example of breaking a worksheet. As shown in FIG. 51, when the user's right hand HR1 picks up a specific cell of the worksheet WS1 and the user's left hand HL1 suppresses the worksheet WS1, an operation to move the right hand HR1 is detected (step S141). The display device 1 may display the worksheet WS1 as if it was torn from a specific cell at the position of the user's right hand HR1 (step S142). The display device 1 may be configured such that a piece is cut off in units of cells. When the display device 1 detects an operation of superimposing a broken piece of the torn worksheet WS1 on another sheet, the display device 1 may display the piece as if it was absorbed by another sheet.

同時に、表示装置1は、図39に示すルールNo.6に基づいて演算を行い、演算結果により表計算データ24eに記憶されているデータを更新する。すなわち、表示装置1は、切れ端が切り取られたワークシートのセルのデータを消去するとともに、切れ端が重ねあわされたワークシートのセルのデータを更新する。更新の際、切れ端が重ねあわされたワークシートのセルのうち、切れ端として切り取られたセルの座標に対応するセルのデータを更新する。   At the same time, the display device 1 displays the rule No. 1 shown in FIG. 6 is calculated, and the data stored in the spreadsheet data 24e is updated with the calculation result. In other words, the display device 1 erases the data of the worksheet cells from which the pieces are cut off, and updates the data of the worksheet cells from which the pieces are overlapped. At the time of updating, the cell data corresponding to the coordinates of the cells cut out as the pieces are updated among the cells of the worksheet with the pieces overlapped.

次に、摘んだセル(セルに記入されているデータ)の削除について説明する。図52は、セルの削除について説明するための図である。図52に示すように、表示装置1は、利用者が手H1の指を開いたままで一定時間を経過すると、利用者の指と指の間にあるセルを処理範囲として確定させる(ステップS151)。具体的には、表示装置1は、表示空間50で利用者の2つの指を2つの現実の物体として検出し、かつ、利用者の2つの指の間にセルが位置する状態が所定時間以上継続した場合、該当のセルが選択されたものと判定する。続いて、表示装置1は、矢印で示すように、開いていた利用者の指を閉じる操作を検出すると(ステップS152)、指の接触のタイミングで、処理範囲として確定されたセルに記入されている数字が削除されたかのように消失させる(ステップS153)。   Next, deletion of the picked cell (data entered in the cell) will be described. FIG. 52 is a diagram for explaining cell deletion. As shown in FIG. 52, when a certain time elapses while the user keeps the finger of the hand H1 open, the display device 1 determines a cell between the user's finger as a processing range (step S151). . Specifically, the display device 1 detects the user's two fingers as two real objects in the display space 50, and the state where the cell is positioned between the two fingers of the user is equal to or longer than a predetermined time. When continuing, it determines with the applicable cell having been selected. Subsequently, when the display device 1 detects an operation of closing the opened user's finger as indicated by an arrow (step S152), the display device 1 is filled in a cell determined as a processing range at the timing of the finger contact. The number is erased as if it was deleted (step S153).

同時に、表示装置1は、図39に示すルールNo.7に基づいて演算を行い、演算結果により表計算データ24eに記憶されているデータを更新する。すなわち、表示装置1は、処理範囲として確定されたセルに対応する数値データを消去する。   At the same time, the display device 1 displays the rule No. 1 shown in FIG. 7 is calculated, and the data stored in the spreadsheet data 24e is updated with the calculation result. That is, the display device 1 erases the numerical data corresponding to the cell determined as the processing range.

次に、摘んだセルのコピーについて説明する。図53は、セルのコピーについて説明するための図である。表示装置1は、利用者が手H1の指を開いたままで一定時間を経過すると、利用者の指と指の間にあるセルを処理範囲として確定させる(ステップS161)。具体的には、表示装置1は、表示空間50で利用者の2つの指を2つの現実の物体として検出し、かつ、利用者の2つの指の間にセルが位置する状態が所定時間以上継続した場合、該当のセルが選択されたものと判定する。続いて、表示装置1は、矢印で示すように、指があいたままの状態で移動する操作を検出すると(ステップS162)、開いたままの指で停止するタイミングで、利用者の手H1が停止した位置にあるセルに対して、処理範囲として確定されたセルに記入されている数字をコピーされたかのように表示する(ステップS163)。   Next, a copy of the picked cell will be described. FIG. 53 is a diagram for explaining cell copying. When a certain time elapses while the user keeps the finger of the hand H1 open, the display device 1 determines a cell between the user's fingers as a processing range (step S161). Specifically, the display device 1 detects the user's two fingers as two real objects in the display space 50, and the state where the cell is positioned between the two fingers of the user is equal to or longer than a predetermined time. When continuing, it determines with the applicable cell having been selected. Subsequently, when the display device 1 detects an operation of moving with the finger held as indicated by an arrow (step S162), the user's hand H1 is stopped at the timing of stopping with the finger kept open. For the cell at the selected position, the number written in the cell determined as the processing range is displayed as if it was copied (step S163).

同時に、表示装置1は、図39に示すルールNo.8に基づいて演算を行い、演算結果により表計算データ24eに記憶されているデータを更新する。すなわち、表示装置1は、コピー先のセルに対応する数値データを更新する。   At the same time, the display device 1 displays the rule No. 1 shown in FIG. 8 is calculated, and the data stored in the spreadsheet data 24e is updated with the calculation result. That is, the display device 1 updates the numerical data corresponding to the copy destination cell.

次に、表示装置1は、ワークシートのめくり表示について説明する。図54は、ワークシートのめくり表示について説明するための図である。図54に示すように、表示装置1は、ワークシートWS1が利用者の手H1で摘まれた状態で、矢印の方向へ移動する操作を検出した場合には(ステップS161)、ワークシートWS1がめくれているかのように、ワークシートWS1の背面にあるワークシートWS2を表示させる(ステップS162)。具体的には、表示装置1は、表示空間50で利用者の2つの指を2つの現実の物体として検出し、かつ、利用者の2つの指がワークシート上に位置する状態が所定時間以上継続した場合、該当のワークシートが選択されたものと判定する。   Next, the display device 1 will explain the turning display of the worksheet. FIG. 54 is a diagram for explaining the display of turning a worksheet. As shown in FIG. 54, when the display device 1 detects an operation of moving in the direction of the arrow while the worksheet WS1 is picked up by the user's hand H1 (step S161), the worksheet WS1 is displayed. The worksheet WS2 on the back surface of the worksheet WS1 is displayed as if turning up (step S162). Specifically, the display device 1 detects the user's two fingers as two real objects in the display space 50, and the state where the user's two fingers are positioned on the worksheet is longer than a predetermined time. If it continues, it is determined that the corresponding worksheet has been selected.

同時に、表示装置1は、図39に示すルールNo.9に基づいて、演算結果により表計算データ24eに記憶されているデータを更新する。すなわち、表示装置1は、ワークシートWS2について、視認可能な状態に変更した旨を更新する。   At the same time, the display device 1 displays the rule No. 1 shown in FIG. 9, the data stored in the spreadsheet data 24e is updated with the calculation result. That is, the display device 1 updates the fact that the worksheet WS2 has been changed to a visible state.

図55は、第2の実施例に係る処理手順を示すフローチャートである。図55に示す処理手順は、制御部22が、制御プログラム24aを実行することによって実現される。   FIG. 55 is a flowchart illustrating a processing procedure according to the second embodiment. The processing procedure shown in FIG. 55 is realized by the control unit 22 executing the control program 24a.

図55に示すように、制御部22は、ステップSJ01として、ワークシートを合成表示する(図40など参照)。   As shown in FIG. 55, the control unit 22 composites and displays the worksheet as step SJ01 (see FIG. 40 and the like).

続いて、制御部22は、ステップSJ02として、ワークシートに対する操作が検出されたかを判定する。制御部22は、判定の結果、ワークシートに対する操作が検出された場合には(ステップSJ02,Yes)、ステップSJ03として、検出された操作に応じて処理を実行する。例えば、ステップSJ03において実行される処理には、ワークシートに対して検出される操作に応じて前記ルールにより決定される表計算に関わる処理を実行する制御、及びワークシートに対して検出される操作に応じてワークシートの表示態様を変化させる制御が含まれる(図41〜図54など参照)。   Subsequently, in step SJ02, the control unit 22 determines whether an operation on the worksheet is detected. As a result of the determination, when an operation on the worksheet is detected (step SJ02, Yes), the control unit 22 executes a process according to the detected operation as step SJ03. For example, the process executed in step SJ03 includes a control for executing a process relating to a spreadsheet determined by the rule according to an operation detected for the worksheet, and an operation detected for the worksheet. Control to change the display mode of the worksheet in accordance with (see FIGS. 41 to 54, etc.).

続いて、制御部22は、ステップSJ04として、操作終了が検出されたかを判定する。操作終了は、例えば、操作部13に対する所定の操作が行われた場合に検出される。操作終了が検出された場合(ステップSJ04,Yes)、制御部22は、図55に示す処理手順を終了させる。操作終了が検出されない場合(ステップSJ04,No)、制御部22は、ステップSJ02以降を再実行する。   Subsequently, the control unit 22 determines whether the operation end is detected as Step SJ04. The operation end is detected, for example, when a predetermined operation is performed on the operation unit 13. When the operation end is detected (step SJ04, Yes), the control unit 22 ends the processing procedure shown in FIG. When the operation end is not detected (No at Step SJ04), the control unit 22 re-executes Step SJ02 and the subsequent steps.

ステップSJ02において、制御部22は、判定の結果、ワークシートに対する操作が検出されない場合には(ステップSJ02,No)、上記ステップSJ04の処理手順に進む。   In step SJ02, if the result of determination is that an operation on the worksheet has not been detected (No in step SJ02), the control unit 22 proceeds to the processing procedure in step SJ04.

(その他の実施例)
表示装置1は、第2の実施例に示す例に限定されることなく、任意の枚数のワークシートを3次元オブジェクトとして表示空間50に表示することができる。
(Other examples)
The display device 1 is not limited to the example shown in the second embodiment, and can display an arbitrary number of worksheets in the display space 50 as a three-dimensional object.

第2の実施例では、表示装置1が、複数のワークシートを重ねて表示する例を説明したが、これに限定されることなく、例えば、表示装置1の周囲に、ワークシートを表示してもよい。図56は、ワークシートの他の表示例を示す図である。図56に示すように、表示装置1は、表示装置1を装着する利用者U1の周囲を取り囲むように、例えば、ワークシートWS1〜WS4を表示する。   In the second embodiment, an example in which the display device 1 displays a plurality of worksheets in an overlapping manner has been described. However, the present invention is not limited to this. For example, a worksheet is displayed around the display device 1. Also good. FIG. 56 is a diagram showing another display example of the worksheet. As shown in FIG. 56, the display device 1 displays, for example, worksheets WS1 to WS4 so as to surround the user U1 wearing the display device 1.

この場合、表示装置1は、例えば、表示装置1の姿勢を検出するための姿勢検出ユニットを搭載する。姿勢検出ユニットは、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。表示装置1は、姿勢検出ユニットの検出結果に基づいて、利用者U1の正面にあるワークシートを検出し、該当のワークシートを編集可能とする。あるいは、表示装置1は、ワークシートを同時に編集可能とし、ユーザにより現在編集中のワークシート以外の他のワークシートを移動させるなどの操作も可能とする。   In this case, the display device 1 includes, for example, a posture detection unit for detecting the posture of the display device 1. The posture detection unit includes at least one of an acceleration sensor, an orientation sensor, and a gyroscope. The display device 1 detects the worksheet in front of the user U1 based on the detection result of the posture detection unit, and enables the corresponding worksheet to be edited. Alternatively, the display device 1 can edit a worksheet at the same time, and can also perform operations such as moving a worksheet other than the currently edited worksheet.

さらに、表示装置1は、ワークシートを機能別に表示してもよい。例えば、表示装置1は、利用者U1の正面に利用者U1からの編集操作を受け付けるワークシートを表示し、利用者U1の左右にグラフが描画されるワークシートを表示させ、利用者の背後に図形(アニメーション)などが描画されるワークシートを表示させるなどしてもよい。表示装置1は、各ワークシートを連動させることにより、利用者U1によるワークシートの編集に応じて、グラフおよび図形などをリアルタイムで変化させてもよい。   Further, the display device 1 may display worksheets by function. For example, the display device 1 displays a worksheet that accepts an editing operation from the user U1 in front of the user U1, displays a worksheet on which graphs are drawn on the left and right of the user U1, and is behind the user. You may display the worksheet on which a figure (animation) etc. are drawn. The display device 1 may change graphs and graphics in real time in accordance with the editing of the worksheet by the user U1 by linking each worksheet.

さらに、表示装置1は、直感的な操作によりワークシートを拡大または縮小できるようにしてもよい。例えば、表示装置1は、ワークシート上に置かれている利用者U1の両手の間隔が広げられる操作を検出するとワークシートを拡大し、間隔が狭められる操作を検出するとワークシートを縮小してもよい。例えば、表示装置1は、ワークシートの特定のセルを指定する利用者U1の指の間隔が広げられる操作を検出すると該当のセルを拡大し、間隔が狭められる操作を検出するとセルを縮小してもよい。このとき、表示装置1は、第2の実施例で説明したセルに記入されているデータの削除の処理(図52参照)の場合と、操作と処理との対応付けに矛盾しないようにルールを構築するものとする。   Further, the display device 1 may be configured to enlarge or reduce the worksheet by an intuitive operation. For example, the display device 1 enlarges the worksheet when detecting an operation in which the distance between both hands of the user U1 placed on the worksheet is increased, and reduces the worksheet when an operation in which the interval is reduced is detected. Good. For example, the display device 1 expands the corresponding cell when detecting an operation in which the finger interval of the user U1 who designates a specific cell on the worksheet is increased, and reduces the cell when an operation in which the interval is decreased is detected. Also good. At this time, the display device 1 sets a rule so that there is no contradiction between the case of the process of deleting the data entered in the cell described in the second embodiment (see FIG. 52) and the correspondence between the operation and the process. Shall be constructed.

さらに、表示装置1は、直感的な操作によりワークシートを重ね合わせることにより、数値データの集計、演算、および分析などの表計算に関わる処理を実行できるようにしてもよい。例えば、表示装置1は、セルに数式が定義されたワークシートと、数値データが記入されたワークシートとを重ね合わせる操作を検出すると、定義された数式に基づく数値データの演算結果を、例えば、数値が記入されたワークシートに表示させる。表示装置1は、利用者U1による操作に応じて、ワークシートを重ね合わせる際に、特定の座標同士を正確に重ね合わせるようにしてもよい。   Furthermore, the display device 1 may be configured to execute processing related to table calculations such as tabulation, calculation, and analysis of numerical data by superimposing worksheets by an intuitive operation. For example, when the display device 1 detects an operation of superimposing a worksheet in which a formula is defined in a cell and a worksheet in which numeric data is entered, the calculation result of the numeric data based on the defined formula is, for example, Display on a worksheet with numerical values. The display device 1 may accurately superimpose specific coordinates when superimposing worksheets in accordance with an operation by the user U1.

さらに、表示装置1は、直感的な操作によりワークシートの表示位置を整理するようにしてもよい。図57は、ワークシートの表示位置の整理例を示す図である。図57のステップS181に示すように、例えば、利用者U1の操作により、ワークシートWS3とワークシートWS4とが重なった状態で表示されているものとする。このとき、表示装置1は、利用者U1が手を2回叩く操作を検出すると、図57のステップS182に示すように、ワークシートWS3及びワークシートWS4の表示位置を、例えば、図56に示す表示位置に戻す。表示位置を元に戻す操作は、利用者U1が手を2回叩く操作に限定されず、任意の操作を採用できる。   Furthermore, the display device 1 may arrange the display position of the worksheet by an intuitive operation. FIG. 57 is a diagram illustrating an example of arranging the display positions of the worksheet. As shown in step S181 of FIG. 57, for example, it is assumed that the worksheet WS3 and the worksheet WS4 are displayed in an overlapped state by the operation of the user U1. At this time, when the display device 1 detects an operation of the user U1 tapping twice, as shown in step S182 of FIG. 57, the display positions of the worksheet WS3 and the worksheet WS4 are shown in FIG. 56, for example. Return to the display position. The operation for returning the display position is not limited to the operation in which the user U1 taps the hand twice, and any operation can be adopted.

上記の各実施例で示した本発明の態様は、本発明の要旨を逸脱しない範囲で任意に変更することができる。また、上記の各実施例を適宜組み合わせてもよい。例えば、上記の実施例で示した制御プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと統合されていてもよい。   The aspects of the present invention shown in the above embodiments can be arbitrarily changed without departing from the gist of the present invention. Moreover, you may combine each said Example suitably. For example, the control program shown in the above embodiment may be divided into a plurality of modules or may be integrated with other programs.

上記の実施例では、3次元オブジェクトを利用者自身が操作する例について説明したが、表示装置は、撮影部の撮影範囲における他人、動物、機械等の動きを3次元オブジェクトとして検出してもよい。また、表示装置は、仮想空間を他の装置と共有してもよい。すなわち、表示装置は、仮想空間内の3次元オブジェクトを当該表示装置の利用者以外の人が他の装置を介して見て操作できるように構成されてもよい。   In the above-described embodiment, an example in which the user himself / herself operates a three-dimensional object has been described. . In addition, the display device may share the virtual space with other devices. That is, the display device may be configured such that a person other than the user of the display device can view and operate the three-dimensional object in the virtual space through another device.

上記の実施例では、表示装置が単独で3次元オブジェクトに対する操作を検出することとしたが、表示装置がサーバ装置と協業して3次元オブジェクトに対する操作を検出することとしてもよい。この場合、表示装置は、撮影部が撮影した画像または検出部の検出した情報をサーバ装置へ逐次送信し、サーバ装置が操作を検出して検出結果を表示装置へ通知する。このような構成とすることにより、表示装置の負荷を低減することができる。   In the above embodiment, the display device alone detects an operation on the three-dimensional object. However, the display device may detect an operation on the three-dimensional object in cooperation with the server device. In this case, the display device sequentially transmits the image captured by the imaging unit or the information detected by the detection unit to the server device, and the server device detects the operation and notifies the display device of the detection result. With this configuration, the load on the display device can be reduced.

上記の実施例で説明した表示装置により実行される各種制御は、スマートフォン、タブレットなどの携帯型の装置で実行することもできる。   Various controls executed by the display device described in the above embodiments can also be executed by a portable device such as a smartphone or a tablet.

1 表示装置
1a 前面部
1b 側面部
1c 側面部
4d 情報処理装置
13 操作部
22 制御部
24 記憶部
24a 制御プログラム
24b オブジェクトデータ
24c 作用データ
24d 仮想空間データ
24e 表計算データ
25 検出処理部
26 表示オブジェクト制御部
27 画像合成部
28 表計算処理部
32a、32b 表示部
40、42 撮影部
44 検出部
46 測距部
DESCRIPTION OF SYMBOLS 1 Display apparatus 1a Front part 1b Side part 1c Side part 4d Information processing apparatus 13 Operation part 22 Control part 24 Storage part 24a Control program 24b Object data 24c Action data 24d Virtual space data 24e Spreadsheet data 25 Detection process part 26 Display object control Section 27 Image composition section 28 Spreadsheet processing sections 32a and 32b Display sections 40 and 42 Image capturing section 44 Detection section 46 Distance measurement section

Claims (7)

装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、表計算に関わる処理を実行するための平面状のオブジェクトを3次元表示する表示部と、
前記オブジェクトに対する操作と、前記処理に含まれる処理項目とが対応付けられたルールを記憶する記憶部と、
前記操作を検出する検出部と、
前記ルールに基づいて、前記検出部によって検出される前記操作に応じて実行すべき前記処理項目を決定する制御部と
を有することを特徴とする表示装置。
A display unit for displaying a planar object for performing processing related to a spreadsheet by three-dimensionally displaying an image corresponding to each of both eyes of the user by being mounted;
A storage unit that stores a rule in which an operation on the object is associated with a process item included in the process;
A detection unit for detecting the operation;
And a control unit that determines the processing item to be executed according to the operation detected by the detection unit based on the rule.
前記表示部は、複数の前記オブジェクトを表示し、
前記制御部は、前記検出部によって検出される前記操作に応じて、複数の前記オブジェクトに対して同時に実行すべき前記処理項目を前記ルールに基づいて決定する請求項1に記載の表示装置。
The display unit displays a plurality of the objects,
The display device according to claim 1, wherein the control unit determines, based on the rule, the processing items to be executed simultaneously on a plurality of the objects in accordance with the operation detected by the detection unit.
前記制御部は、前記検出部によって検出される前記操作に応じて、複数の前記オブジェクトを同時に消去する請求項2に記載の表示装置。   The display device according to claim 2, wherein the control unit simultaneously erases the plurality of objects according to the operation detected by the detection unit. 前記オブジェクトには、データの入力が行われる処理領域であるセルが格子状に複数配置され、
前記制御部は、前記検出部によって検出される前記操作に応じて、複数の前記オブジェクトの中から1つのオブジェクトを選択し、選択したオブジェクトに配置される前記セルに入力されているデータを、他の前記オブジェクトに配置されている前記セルに対して同時に複製する処理を実行する請求項2に記載の表示装置。
In the object, a plurality of cells, which are processing areas where data is input, are arranged in a grid pattern,
The control unit selects one object from the plurality of objects according to the operation detected by the detection unit, and inputs data input to the cell arranged in the selected object. The display device according to claim 2, wherein a process of simultaneously copying the cells arranged in the object is executed.
前記オブジェクトには、データの入力が行われる処理領域であるセルが格子状に複数配置され、
前記制御部は、前記検出部によって検出される前記操作に応じて、複数の前記オブジェクトのうちの第1のオブジェクトに配置される前記セルに入力されるデータと、複数の前記オブジェクトのうちの第2のオブジェクトに配置される前記セルに入力されるデータとの演算処理を実行する請求項2に記載の表示装置。
In the object, a plurality of cells, which are processing areas where data is input, are arranged in a grid pattern,
The control unit, in response to the operation detected by the detection unit, data input to the cell arranged in the first object of the plurality of objects, and the first of the plurality of objects The display device according to claim 2, wherein arithmetic processing with data input to the cell arranged in the second object is executed.
装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、表計算に関わる処理を実行するためのオブジェクトを3次元表示する表示装置によって実行される制御方法であって、
平面状の前記オブジェクトを表示装置に3次元表示するステップと、
前記オブジェクトに対する操作を検出するステップと、
前記操作と、前記処理に含まれる処理項目とが対応付けられたルールを記憶する記憶部を参照して、検出される前記操作に応じて実行すべき前記処理項目を決定するステップと
を含むことを特徴とする制御方法。
A control method that is executed by a display device that three-dimensionally displays an object for executing processing related to a spreadsheet by displaying an image corresponding to each of both eyes of the user by being mounted,
Displaying the planar object on a display device in three dimensions;
Detecting an operation on the object;
Determining a processing item to be executed according to the detected operation with reference to a storage unit that stores a rule in which the operation and a processing item included in the processing are associated with each other. A control method characterized by the above.
装着されることによりユーザの両目のそれぞれに対応した画像を表示することで、表計算に関わる処理を実行するためのオブジェクトを3次元表示する表示装置に、
平面状の前記オブジェクトを表示装置に3次元表示するステップと、
前記オブジェクトに対する操作を検出するステップと、
前記操作と、前記処理に含まれる処理項目とが対応付けられたルールを記憶する記憶部を参照して、検出される前記操作に応じて実行すべき前記処理項目を決定するステップと
を実行させることを特徴とする制御プログラム。
By displaying an image corresponding to each of the user's eyes by wearing it, a display device that displays a three-dimensional object for performing processing related to spreadsheets,
Displaying the planar object on a display device in three dimensions;
Detecting an operation on the object;
Determining a processing item to be executed according to the detected operation with reference to a storage unit storing a rule in which the operation and a processing item included in the processing are associated with each other; A control program characterized by that.
JP2012218160A 2012-09-28 2012-09-28 Display device, control method, and control program Active JP5931680B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012218160A JP5931680B2 (en) 2012-09-28 2012-09-28 Display device, control method, and control program
US14/431,636 US9778739B2 (en) 2012-09-28 2013-09-27 Display device, control method, and control program for stereoscopically displaying three-dimensional object
PCT/JP2013/076371 WO2014051092A1 (en) 2012-09-28 2013-09-27 Display device, control method, and control program
EP13840943.8A EP2902874A4 (en) 2012-09-28 2013-09-27 Display device, control method, and control program
CN201380050351.7A CN104662493B (en) 2012-09-28 2013-09-27 display device, control method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012218160A JP5931680B2 (en) 2012-09-28 2012-09-28 Display device, control method, and control program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016088517A Division JP6125075B2 (en) 2016-04-26 2016-04-26 Display device, control method, and control program

Publications (2)

Publication Number Publication Date
JP2014071736A JP2014071736A (en) 2014-04-21
JP5931680B2 true JP5931680B2 (en) 2016-06-08

Family

ID=50746857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012218160A Active JP5931680B2 (en) 2012-09-28 2012-09-28 Display device, control method, and control program

Country Status (1)

Country Link
JP (1) JP5931680B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6731015B2 (en) 2018-05-11 2020-07-29 株式会社ソニー・インタラクティブエンタテインメント Program and information processing device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0778055A (en) * 1993-06-25 1995-03-20 Casio Comput Co Ltd Data processor
JP3126898B2 (en) * 1995-04-26 2001-01-22 シャープ株式会社 Head-mounted display device
US6600480B2 (en) * 1998-12-31 2003-07-29 Anthony James Francis Natoli Virtual reality keyboard system and method
EP1221101A4 (en) * 1999-08-09 2003-03-12 Cognex Corp Machine vision spreadsheet
US9032288B2 (en) * 2009-09-11 2015-05-12 Xerox Corporation Document presentation in virtual worlds
JP2011180843A (en) * 2010-03-01 2011-09-15 Sony Corp Apparatus and method for processing information, and program
JP5564300B2 (en) * 2010-03-19 2014-07-30 富士フイルム株式会社 Head mounted augmented reality video presentation device and virtual display object operating method thereof

Also Published As

Publication number Publication date
JP2014071736A (en) 2014-04-21

Similar Documents

Publication Publication Date Title
JP5877219B2 (en) 3D user interface effect on display by using motion characteristics
US9619941B2 (en) Virtual play area display device, control system, and control program
WO2014050959A1 (en) Display device and control method
KR20160080064A (en) Virtual sensor in a virtual environment
EP2903265A1 (en) Display device, control method, and control program
JP2019517049A (en) Interaction with 3D virtual objects using pose and multiple DOF controllers
JP6159069B2 (en) Display device
WO2014051092A1 (en) Display device, control method, and control program
JP5694883B2 (en) Display device
KR20180088754A (en) Method, system and device for navigating in a virtual reality environment
EP2902998A1 (en) Display device, control system, and control programme
GB2376397A (en) Virtual or augmented reality
JP5715007B2 (en) Display device
JP2014072576A (en) Display device and control method
JP6125075B2 (en) Display device, control method, and control program
JP5931680B2 (en) Display device, control method, and control program
JP6125785B2 (en) Display device and control method
JP2017208820A (en) Order system
JP2014072575A (en) Display device and control method
JP6302506B2 (en) Display device, control method, and control program
JP6125076B2 (en) Display device, control method, and control program
JP5931681B2 (en) Display device, control method, and control program
JP2017163560A (en) Display device, system, and display method
JP6945699B2 (en) Program and game equipment
JP2016224959A (en) Display device and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160427

R150 Certificate of patent or registration of utility model

Ref document number: 5931680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150