JP2018088240A - Input device and image display system - Google Patents

Input device and image display system Download PDF

Info

Publication number
JP2018088240A
JP2018088240A JP2017188009A JP2017188009A JP2018088240A JP 2018088240 A JP2018088240 A JP 2018088240A JP 2017188009 A JP2017188009 A JP 2017188009A JP 2017188009 A JP2017188009 A JP 2017188009A JP 2018088240 A JP2018088240 A JP 2018088240A
Authority
JP
Japan
Prior art keywords
virtual
input device
unit
elastic layer
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017188009A
Other languages
Japanese (ja)
Other versions
JP6977991B2 (en
Inventor
憲彦 齋藤
Norihiko Saito
憲彦 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saito Sozo Lab Co Ltd
Original Assignee
Saito Sozo Lab Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saito Sozo Lab Co Ltd filed Critical Saito Sozo Lab Co Ltd
Publication of JP2018088240A publication Critical patent/JP2018088240A/en
Priority to JP2021116813A priority Critical patent/JP7209310B2/en
Application granted granted Critical
Publication of JP6977991B2 publication Critical patent/JP6977991B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an input device and an image display system capable of providing delicate and intuitive input.SOLUTION: An input device 200 includes a first member 210 having a first position reference part 231 and a second position reference part 232 set apart from each other, and a second member 220 having a third position reference part 233 and a fourth position reference part 234 set apart from each other, so as to generate information on a virtual surface F defined by the first position reference part 231, the second position reference part 232, the third position reference part 233, and the fourth position reference part 234.SELECTED DRAWING: Figure 3

Description

本発明は、入力装置および画像表示システムに関するものである。   The present invention relates to an input device and an image display system.

従来から、三次元仮想空間に仮想立体構造物をアウトプットする装置として、3D立体テレビやヘッドマウントディスプレイ等が知られている。また、3D立体テレビやヘッドマウントディスプレイの三次元仮想空間に表示する仮想立体構造物は、例えばCAD(Computer−aided design)によって作成することができる。また、作成した仮想立体構造物の加工を行う際のデータ入力装置としては、一般的に、特許文献1に示すような公知のマウス、キーボード、コントローラー等が使用される。   Conventionally, 3D stereoscopic televisions, head mounted displays, and the like are known as devices that output a virtual three-dimensional structure to a three-dimensional virtual space. Moreover, the virtual three-dimensional structure displayed in the three-dimensional virtual space of the 3D stereoscopic television or the head mounted display can be created by, for example, CAD (Computer-aided design). As a data input device for processing the created virtual three-dimensional structure, a known mouse, keyboard, controller or the like as shown in Patent Document 1 is generally used.

特表2008−541268号公報Special table 2008-541268 gazette

しかしながら、マウス、キーボード、コントローラー等の既存の入力装置では、繊細で直感的な入力を行うことができない。   However, existing input devices such as a mouse, a keyboard, and a controller cannot perform delicate and intuitive input.

本発明の目的は、繊細で直感的な入力を行うことのできる入力装置および画像表示システムを提供することにある。   An object of the present invention is to provide an input device and an image display system capable of performing delicate and intuitive input.

このような目的は、下記の本発明により達成される。   Such an object is achieved by the present invention described below.

(1) 互いに離間して設定された第1位置基準部および第2位置基準部を有する第1部材と、
互いに離間して設定された第3位置基準部および第4位置基準部を有する第2部材と、を有し、
前記第1位置基準部、前記第2位置基準部、前記第3位置基準部および前記第4位置基準部で定まる仮想面の情報が生成されることを特徴とする入力装置。
(1) a first member having a first position reference part and a second position reference part set apart from each other;
A second member having a third position reference part and a fourth position reference part set apart from each other,
An input device, wherein information on a virtual plane determined by the first position reference unit, the second position reference unit, the third position reference unit, and the fourth position reference unit is generated.

(2) 前記情報には、前記仮想面の形状、前記仮想面の傾きおよび前記仮想面の位置の少なくとも1つが含まれる上記(1)に記載の入力装置。   (2) The input device according to (1), wherein the information includes at least one of a shape of the virtual surface, an inclination of the virtual surface, and a position of the virtual surface.

(3) 外力が入力される第1面および前記第1面の反対側の第2面が規定される弾性層と、
前記弾性層に配置され、前記弾性層の変形に伴って変位するマーカーと、
前記弾性層の前記第2面側に位置づけられ、前記マーカーの変位に基づいて前記弾性層の変形を検出する検出部と、を備える上記(1)または(2)に記載の入力装置。
(3) an elastic layer in which a first surface to which an external force is input and a second surface opposite to the first surface are defined;
A marker that is disposed in the elastic layer and is displaced along with the deformation of the elastic layer;
The input device according to (1) or (2), further including: a detection unit that is positioned on the second surface side of the elastic layer and detects deformation of the elastic layer based on displacement of the marker.

(4) 前記マーカーは、前記弾性層の厚さ方向にずれて配置された第1マーカーおよび第2マーカーを有する上記(3)に記載の入力装置。   (4) The input device according to (3), wherein the marker includes a first marker and a second marker that are arranged to be shifted in a thickness direction of the elastic layer.

(5) 前記第1部材および前記第2部材は、分離されている上記(1)ないし(4)のいずれかに記載の入力装置。   (5) The input device according to any one of (1) to (4), wherein the first member and the second member are separated.

(6) 前記第1部材および前記第2部材は、回動可能に連結されている上記(1)ないし(4)のいずれかに記載の入力装置。   (6) The input device according to any one of (1) to (4), wherein the first member and the second member are rotatably connected.

(7) 前記第1部材および前記第2部材は、接近および離間が可能である上記(6)に記載の入力装置。   (7) The input device according to (6), wherein the first member and the second member are capable of approaching and separating.

(8) 前記第1部材および前記第2部材は、合体および分離が可能である上記(6)または(7)に記載の入力装置。   (8) The input device according to (6) or (7), wherein the first member and the second member can be combined and separated.

(9) 前記第1部材および前記第2部材の一方は、使用者の右手に把持され、他方は、使用者の左手に把持される上記(1)ないし(8)のいずれかに記載の入力装置。   (9) The input according to any one of (1) to (8), wherein one of the first member and the second member is gripped by a user's right hand and the other is gripped by the user's left hand. apparatus.

(10) 基体と、
前記基体に設けられ、互いに離間した第1位置基準部および第2位置基準部と、
前記基体に設けられ、所定方向を検出する方向検出部と、を有し、
前記第1位置基準部および前記第2位置基準部で定まる仮想直線と、前記所定方向と、で定まる仮想面の情報が生成されることを特徴とする入力装置。
(10) a substrate;
A first position reference portion and a second position reference portion provided on the base body and spaced apart from each other;
A direction detection unit that is provided on the base body and detects a predetermined direction;
Information on a virtual plane determined by a virtual straight line determined by the first position reference unit and the second position reference unit and the predetermined direction is generated.

(11) 前記所定方向は、鉛直方向である上記(10)に記載の入力装置。   (11) The input device according to (10), wherein the predetermined direction is a vertical direction.

(12) 前記仮想加工用具は、仮想物体に接触させる接触部を有し、
前記接触部は、前記仮想直線によって定められる上記(10)または(11)に記載の入力装置。
(12) The virtual processing tool has a contact portion that makes contact with a virtual object,
The input device according to (10) or (11), wherein the contact portion is defined by the virtual straight line.

(13) 前記接触部を変形させる弾性入力部を有する上記(12)に記載の入力装置。   (13) The input device according to (12), further including an elastic input unit that deforms the contact unit.

(14) 前記弾性入力部は、外力が入力される第1面および前記第1面の反対側の第2面が規定される弾性層と、
前記弾性層に配置され、前記弾性層の変形に伴って変位するマーカーと、
前記弾性層の前記第2面側に位置づけられ、前記マーカーの変位に基づいて前記弾性層の変形を検出する検出部と、を備える上記(13)に記載の入力装置。
(14) The elastic input unit includes an elastic layer in which a first surface to which an external force is input and a second surface opposite to the first surface are defined,
A marker that is disposed in the elastic layer and is displaced along with the deformation of the elastic layer;
The input device according to (13), further comprising: a detection unit that is positioned on the second surface side of the elastic layer and detects deformation of the elastic layer based on displacement of the marker.

(15) 仮想現実または拡張現実により生成される仮想物体の表面に前記仮想面を押し当てることで、前記仮想物体を加工することができる上記(1)ないし(14)のいずれかに記載の入力装置。   (15) The input according to any one of (1) to (14), wherein the virtual object can be processed by pressing the virtual surface against the surface of the virtual object generated by virtual reality or augmented reality. apparatus.

(16) 仮想現実または拡張現実に、前記仮想面に対応した仮想加工用具が表示される上記(15)に記載の入力装置。   (16) The input device according to (15), wherein a virtual processing tool corresponding to the virtual plane is displayed in virtual reality or augmented reality.

(17) 前記仮想加工用具の前記仮想物体への接触を報知する報知部を有している上記(16)に記載の入力装置。   (17) The input device according to (16), further including a notification unit that notifies the virtual processing tool of contact with the virtual object.

(18) 前記報知部は、振動部を有している上記(17)に記載の入力装置。   (18) The input device according to (17), wherein the notification unit includes a vibration unit.

(19) 上記(1)ないし(18)のいずれかに記載の入力装置と、
画像を表示する画像表示装置と、を有することを特徴とする画像表示システム。
(19) The input device according to any one of (1) to (18),
An image display system comprising: an image display device that displays an image.

本発明によれば、第1位置基準部、第2位置基準部、第3位置基準部および第4位置基準部で定まる仮想面の情報に応じた信号を生成することができる。例えば、一方の手で第1部材を把持し、他方の手で第2部材を把持し、第1部材と第2部材とを捩じるようにして捜査して仮想面の形状を変形させたり、第1部材と第2部材との相対的位置関係を維持したままこれらを移動させたりすることで、繊細で直感的な入力を行うことができる。   According to the present invention, it is possible to generate a signal corresponding to information on a virtual plane determined by the first position reference unit, the second position reference unit, the third position reference unit, and the fourth position reference unit. For example, the first member is gripped with one hand, the second member is gripped with the other hand, and the shape of the virtual surface is deformed by investigating the first member and the second member. By moving these while maintaining the relative positional relationship between the first member and the second member, it is possible to perform delicate and intuitive input.

また、本発明によれば、第1位置基準部および第2位置基準部で定まる仮想直線と、方向検出部で検出される所定方向と、で定まる仮想平面の情報に応じて入力信号が生成されるようになっている。そのため、例えば、基体を把持し、基体の姿勢を変化させたり、基体を移動させたりすることで、繊細で直感的な入力を行うことができる。   According to the present invention, an input signal is generated according to information on a virtual plane determined by a virtual straight line determined by the first position reference unit and the second position reference unit and a predetermined direction detected by the direction detection unit. It has become so. Therefore, for example, a delicate and intuitive input can be performed by holding the base, changing the posture of the base, or moving the base.

本発明の第1実施形態に係る画像表示システムの構成図である。1 is a configuration diagram of an image display system according to a first embodiment of the present invention. 図1に示す画像表示装置に表示される仮想立体構造物の一例を示す図である。It is a figure which shows an example of the virtual three-dimensional structure displayed on the image display apparatus shown in FIG. 入力装置の斜視図である。It is a perspective view of an input device. 入力装置によって形成される仮想面の一例を示す図である。It is a figure which shows an example of the virtual surface formed with an input device. 入力装置によって形成される仮想面の一例を示す図である。It is a figure which shows an example of the virtual surface formed with an input device. 入力装置によって形成される仮想面の一例を示す図である。It is a figure which shows an example of the virtual surface formed with an input device. 仮想立体構造物の加工方法を示す図である。It is a figure which shows the processing method of a virtual three-dimensional structure. 仮想立体構造物の加工方法を示す図である。It is a figure which shows the processing method of a virtual three-dimensional structure. 仮想立体構造物の別の加工方法を示す図である。It is a figure which shows another processing method of a virtual three-dimensional structure. 報知部の作動を説明するための図である。It is a figure for demonstrating the action | operation of an alerting | reporting part. 報知部の作動を説明するための図である。It is a figure for demonstrating the action | operation of an alerting | reporting part. 報知部の作動を説明するための図である。It is a figure for demonstrating the action | operation of an alerting | reporting part. 報知部の変形例を示す図である。It is a figure which shows the modification of an alerting | reporting part. 本発明の第2実施形態の入力装置を示す平面図である。It is a top view which shows the input device of 2nd Embodiment of this invention. 図14に示す入力装置が有する弾性入力部の断面図である。It is sectional drawing of the elastic input part which the input device shown in FIG. 14 has. 図15に示す弾性入力部への入力方法を示す断面図である。It is sectional drawing which shows the input method to the elastic input part shown in FIG. 図15に示す弾性入力部の機能を説明する図である。It is a figure explaining the function of the elastic input part shown in FIG. 図15に示す弾性入力部の機能を説明する図である。It is a figure explaining the function of the elastic input part shown in FIG. 弾性入力部の変形例を示す断面図である。It is sectional drawing which shows the modification of an elastic input part. 弾性入力部の変形例を示す断面図である。It is sectional drawing which shows the modification of an elastic input part. 弾性入力部の変形例を示す断面図である。It is sectional drawing which shows the modification of an elastic input part. 本発明の第3実施形態の入力装置を示す平面図である。It is a top view which shows the input device of 3rd Embodiment of this invention. 本発明の第4実施形態の入力装置を示す平面図である。It is a top view which shows the input device of 4th Embodiment of this invention. 本発明の第5実施形態の入力装置を示す斜視図である。It is a perspective view which shows the input device of 5th Embodiment of this invention. 図24に示す入力装置の側面図である。It is a side view of the input device shown in FIG. 図24に示す入力装置の使用方法の一例を示す図である。It is a figure which shows an example of the usage method of the input device shown in FIG. 本発明の第6実施形態の入力装置を示す断面図である。It is sectional drawing which shows the input device of 6th Embodiment of this invention. 本発明の第7実施形態の入力装置を示す断面図である。It is sectional drawing which shows the input device of 7th Embodiment of this invention. 本発明の第8実施形態の入力装置を示す断面図である。It is sectional drawing which shows the input device of 8th Embodiment of this invention. 本発明の第9実施形態の入力装置を示す断面図である。It is sectional drawing which shows the input device of 9th Embodiment of this invention. 本発明の第10実施形態の入力装置を示す断面図である。It is sectional drawing which shows the input device of 10th Embodiment of this invention. 本発明の第11実施形態の入力装置を示す断面図である。It is sectional drawing which shows the input device of 11th Embodiment of this invention. 本発明の第12実施形態の入力装置を示す断面図である。It is sectional drawing which shows the input device of 12th Embodiment of this invention. 本発明の第13実施形態の入力装置を示す断面図である。It is sectional drawing which shows the input device of 13th Embodiment of this invention. 本発明の第14実施形態の入力装置を示す断面図である。It is sectional drawing which shows the input device of 14th Embodiment of this invention. 本発明の第14実施形態の入力装置を示す断面図である。It is sectional drawing which shows the input device of 14th Embodiment of this invention. 本発明の第14実施形態の入力装置を示す断面図である。It is sectional drawing which shows the input device of 14th Embodiment of this invention. 本発明の第15実施形態の入力装置を示す平面図である。It is a top view which shows the input device of 15th Embodiment of this invention. 仮想立体構造物の一例を示す図である。It is a figure which shows an example of a virtual three-dimensional structure. 仮想立体構造物の加工方法を示す図である。It is a figure which shows the processing method of a virtual three-dimensional structure. 報知部の作動を説明するための図である。It is a figure for demonstrating the action | operation of an alerting | reporting part. 報知部の作動を説明するための図である。It is a figure for demonstrating the action | operation of an alerting | reporting part. 報知部の作動を説明するための図である。It is a figure for demonstrating the action | operation of an alerting | reporting part. 本発明の第16実施形態の入力装置を示す平面図である。It is a top view which shows the input device of 16th Embodiment of this invention. 図44に示す入力装置の側面図である。It is a side view of the input device shown in FIG. 図44に示す入力装置が有する弾性入力部を示す横断面図である。It is a cross-sectional view which shows the elastic input part which the input device shown in FIG. 44 has. 弾性入力部の機能を説明する図である。It is a figure explaining the function of an elastic input part. 弾性入力部の機能を説明する図である。It is a figure explaining the function of an elastic input part.

以下、本発明の入力装置および画像表示システムを添付図面に示す好適な実施形態に基づいて詳細に説明する。   Hereinafter, an input device and an image display system of the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.

<第1実施形態>
まず、本発明の第1実施形態に係る画像表示システムについて説明する。
<First Embodiment>
First, the image display system according to the first embodiment of the present invention will be described.

図1は、本発明の第1実施形態に係る画像表示システムの構成図である。図2は、図1に示す画像表示装置に表示される仮想立体構造物の一例を示す図である。図3は、入力装置の斜視図である。図4ないし図6は、それぞれ、入力装置によって形成される仮想面の一例を示す図である。図7および図8は、それぞれ、仮想立体構造物の加工方法を示す図である。図9は、仮想立体構造物の別の加工方法を示す図である。図10ないし図12は、それぞれ、報知部の作動を説明するための図である。図13は、報知部の変形例を示す図である。   FIG. 1 is a configuration diagram of an image display system according to the first embodiment of the present invention. FIG. 2 is a diagram illustrating an example of a virtual three-dimensional structure displayed on the image display device illustrated in FIG. 1. FIG. 3 is a perspective view of the input device. 4 to 6 are diagrams each illustrating an example of a virtual surface formed by the input device. 7 and 8 are diagrams showing a method for processing a virtual three-dimensional structure, respectively. FIG. 9 is a diagram illustrating another processing method of the virtual three-dimensional structure. 10 to 12 are diagrams for explaining the operation of the notification unit. FIG. 13 is a diagram illustrating a modification of the notification unit.

図1に示す画像表示システム100は、入力装置200と、画像表示装置300と、端末400と、を有している。   An image display system 100 illustrated in FIG. 1 includes an input device 200, an image display device 300, and a terminal 400.

[画像表示装置]
画像表示装置300は、使用者の頭部に固定して用いられるVR(仮想現実)用のヘッドマウントディスプレイであり、公知のものを用いることができる。また、画像表示装置300は、ポジショントラッキング機能を有していることが好ましい。これにより、空間内での使用者の位置を認識することができ、使用者の移動に応じて画像表示装置300の画像を変化(追従)させることができる。そのため、より現実感のある画像表示システム100となる。
[Image display device]
The image display device 300 is a VR (virtual reality) head-mounted display that is used by being fixed to the user's head, and a known one can be used. The image display device 300 preferably has a position tracking function. Accordingly, the position of the user in the space can be recognized, and the image of the image display device 300 can be changed (followed) in accordance with the movement of the user. Therefore, the image display system 100 has a more realistic feeling.

なお、画像表示装置300としては、AR(拡張現実)用のヘッドマウントディスプレイを用いてもよい。また、画像表示装置300としては、仮想立体構造物(仮想物体)を表示することができればヘッドマウントディスプレイに限定されず、使用者の周囲に設置されているディスプレイであってもよい。また、スクリーンとプロジェクターを用いたものであってもよい。   As the image display device 300, an AR (augmented reality) head mounted display may be used. Further, the image display device 300 is not limited to a head mounted display as long as it can display a virtual three-dimensional structure (virtual object), and may be a display installed around the user. Further, a screen and a projector may be used.

[端末]
端末400は、特に限定されず、例えば、パーソナルコンピューター、タブレット端末、ワークステーション、ゲームマシン、スマートフォン等で構成されている。また、端末400は、例えば、CAD(Computer−aided design)等のシステムを用いて、図2に示すように、画面310に、仮想立体構造物Xおよび仮想立体構造物Xを加工するための仮想加工用具900を表示する。また、端末400は、入力装置200からの入力信号に基づいて画面310内で仮想加工用具900を動かし、仮想加工用具900の動きに応じて仮想立体構造物Xの形状を変化させる。これにより、使用者は、仮想立体構造物Xが仮想加工用具900によって加工される様を確認できる。
[Terminal]
The terminal 400 is not specifically limited, For example, it is comprised with the personal computer, the tablet terminal, the workstation, the game machine, the smart phone, etc. Further, the terminal 400 uses a system such as CAD (Computer-aided design), for example, as shown in FIG. 2, a virtual three-dimensional structure X and a virtual three-dimensional structure X for processing the virtual three-dimensional structure X on the screen 310. The processing tool 900 is displayed. Further, the terminal 400 moves the virtual processing tool 900 within the screen 310 based on an input signal from the input device 200, and changes the shape of the virtual three-dimensional structure X in accordance with the movement of the virtual processing tool 900. Thereby, the user can confirm that the virtual three-dimensional structure X is processed by the virtual processing tool 900.

[入力装置]
入力装置200は、使用者が把持して使用するものである。図3に示すように、入力装置200は、対をなし、互いに分離された第1部材210および第2部材220を有している。そして、第1部材210および第2部材220の一方は、使用者の右手に把持され、他方は、使用者の左手に把持される。なお、図3では、第1部材210を右手で把持し、第2部材220を左手で把持している。
[Input device]
The input device 200 is used by a user. As shown in FIG. 3, the input device 200 includes a first member 210 and a second member 220 that are paired and separated from each other. One of the first member 210 and the second member 220 is held by the user's right hand, and the other is held by the user's left hand. In FIG. 3, the first member 210 is held with the right hand, and the second member 220 is held with the left hand.

また、第1部材210には互いに離間して設定された第1位置基準部231および第2位置基準部232が設けられており、第2部材220には互いに離間して設定された第3位置基準部233および第4位置基準部234が設けられている。そして、入力装置200では、第1位置基準部231、第2位置基準部232、第3位置基準部233および第4位置基準部234で定まる仮想面Fの情報(以下、「仮想面情報」ともいう。)が生成されるようになっている。なお、第1位置基準部231、第2位置基準部232、第3位置基準部233および第4位置基準部234で定まる仮想面Fとは、例えば、第1位置基準部231、第2位置基準部232、第3位置基準部233および第4位置基準部234と交わる仮想面Fや、第1位置基準部231、第2位置基準部232、第3位置基準部233および第4位置基準部234を角とする略矩形状の仮想面Fのことを言う。   The first member 210 is provided with a first position reference portion 231 and a second position reference portion 232 set apart from each other, and the second position of the second member 220 set apart from each other. A reference part 233 and a fourth position reference part 234 are provided. In the input device 200, information on the virtual surface F determined by the first position reference unit 231, the second position reference unit 232, the third position reference unit 233, and the fourth position reference unit 234 (hereinafter, also referred to as “virtual surface information”). Is generated). The virtual plane F determined by the first position reference unit 231, the second position reference unit 232, the third position reference unit 233, and the fourth position reference unit 234 is, for example, the first position reference unit 231 and the second position reference. A virtual plane F that intersects the part 232, the third position reference part 233, and the fourth position reference part 234, the first position reference part 231, the second position reference part 232, the third position reference part 233, and the fourth position reference part 234. A virtual surface F having a substantially rectangular shape with a corner.

画像表示システム100は、仮想面情報を生成する生成部500を有している。このような生成部500は、例えば、第1部材210または第2部材220に内蔵されていたり、端末400や画像表示装置300に内蔵されていたりする。なお、本実施形態では、生成部500は、端末400に内蔵されている。   The image display system 100 includes a generation unit 500 that generates virtual surface information. For example, the generation unit 500 is built in the first member 210 or the second member 220, or is built in the terminal 400 or the image display device 300. In the present embodiment, the generation unit 500 is built in the terminal 400.

また、生成部500が生成する仮想面情報には、仮想面Fの形状、仮想面Fの傾きおよび仮想面Fの位置の少なくとも1つが含まれていることが好ましく、これら全てが含まれていることがより好ましい。このような情報が仮想面情報に含まれていることで、後述するような仮想立体構造物Xの加工をより精度よく行うことができる。   The virtual surface information generated by the generation unit 500 preferably includes at least one of the shape of the virtual surface F, the inclination of the virtual surface F, and the position of the virtual surface F, and all of them are included. It is more preferable. By including such information in the virtual surface information, it is possible to process the virtual three-dimensional structure X as described later with higher accuracy.

第1位置基準部231〜第4位置基準部234の構成としては、それぞれ、現実空間内での位置を検知することができれば特に限定されず、例えば、各種ポジショントラッキング技術に用いられる構成とすることができる。例えば、第1位置基準部231〜第4位置基準部234は、それぞれ、赤外線を出射する赤外線出射部を備える構成とすることができる。この場合、各第1位置基準部231〜第4位置基準部234から出射された赤外線を、空間内に配置した複数の赤外線カメラで検知することで、空間内での各第1位置基準部231〜第4位置基準部234の位置を検知することができる。また、第1位置基準部231〜第4位置基準部234は、それぞれ、ポイント(マーカー)であり、これらポイントを空間内に配置した複数のカメラで検知することで、空間内での各第1位置基準部231〜第4位置基準部234の位置を検知してもよい。   The configuration of the first position reference unit 231 to the fourth position reference unit 234 is not particularly limited as long as the position in the real space can be detected. For example, the configuration used for various position tracking techniques is used. Can do. For example, each of the first position reference unit 231 to the fourth position reference unit 234 may include an infrared emitting unit that emits infrared light. In this case, each first position reference unit 231 in the space is detected by detecting infrared rays emitted from the first position reference unit 231 to the fourth position reference unit 234 with a plurality of infrared cameras arranged in the space. The position of the fourth position reference unit 234 can be detected. In addition, the first position reference unit 231 to the fourth position reference unit 234 are points (markers), and each point in the space is detected by detecting these points with a plurality of cameras arranged in the space. The positions of the position reference unit 231 to the fourth position reference unit 234 may be detected.

また、第1位置基準部231〜第4位置基準部234の構成としては、例えば、GPS(Globle Postioning System)等の空間内での位置を検知する装置や、気圧センサー等の空間内での高さ(高度)を検知する装置や、3軸加速度センサー(互いに直交するX軸、Y軸およびZ軸のそれぞれの軸方向の加速度を検知することのできるセンサー)および3軸角速度センサー(互いに直交するX軸、Y軸およびZ軸のそれぞれの軸まわりの角速度を検知することのできるセンサー)を組み合わせた6軸モーションセンサー等の傾きを検知する装置を用いてもよく、これらのうちの2つ以上を組み合わせて用いてもよい。   The first position reference unit 231 to the fourth position reference unit 234 may be configured to detect a position in a space such as a GPS (Global Positioning System) or a high pressure in a space such as an atmospheric pressure sensor. A device for detecting height (altitude), a three-axis acceleration sensor (a sensor capable of detecting accelerations in the X-axis, Y-axis, and Z-axis orthogonal to each other) and a three-axis angular velocity sensor (orthogonal to each other) A device that detects inclination, such as a 6-axis motion sensor that combines sensors capable of detecting angular velocities around the X-axis, Y-axis, and Z-axis, may be used. Two or more of these may be used. May be used in combination.

ここで、第1部材210は、略矩形の板状をなしており、その側面に、使用時に第2部材220に対向させる第1対向面211を有している。同様に、第2部材220は、板状をなしており、その側面に、使用時に第1部材210に対向させる第2対向面221を有している。すなわち、入力装置200は、第1部材210の第1対向面211と第2部材220の第2対向面221とを対向させた状態で使用される。そのため、第1部材210と第2部材220とが面状に配置され、使用者が仮想面Fをイメージし易くなる。ただし、第1部材210および第2部材220のそれぞれの形状としては、特に限定されず、例えば、板状をなしていなくてもよい。   Here, the first member 210 has a substantially rectangular plate shape, and has a first facing surface 211 that faces the second member 220 at the time of use. Similarly, the second member 220 has a plate shape, and has a second facing surface 221 that faces the first member 210 when used. That is, the input device 200 is used in a state where the first facing surface 211 of the first member 210 and the second facing surface 221 of the second member 220 are opposed to each other. Therefore, the first member 210 and the second member 220 are arranged in a planar shape, and the user can easily imagine the virtual surface F. However, the shape of each of the first member 210 and the second member 220 is not particularly limited, and may not be a plate shape, for example.

また、第1対向面211と第2対向面221とを対向させて配置したとき、これら第1、第2対向面211、221の並び方向であって、第1部材210の第1対向面211と反対側の端部には第1部材210を把持するための把持部212が設けられており、第2部材220の第2対向面221と反対側の端部には第2部材220を把持するための把持部222が設けられている。把持部212は、第1部材210を第1対向面211とは反対側から握るように形成(形状付け)されており、把持部222は、第2部材220を第2対向面221とは反対側から握るように形成(形状付け)されている。そのため、第1部材210を右手で把持し、第2部材220を左手で把持すると、第1対向面211と第2対向面221とが自然に向き合うようになっている。このような構成とすることで、入力装置200の操作性が向上する。   In addition, when the first facing surface 211 and the second facing surface 221 are arranged to face each other, the first facing surface 211 of the first member 210 is the direction in which the first and second facing surfaces 211 and 221 are arranged. A grip 212 for gripping the first member 210 is provided at the end opposite to the second member 220, and the second member 220 is gripped at the end opposite to the second facing surface 221 of the second member 220. A gripping part 222 is provided. The grip portion 212 is formed (shaped) so as to grip the first member 210 from the side opposite to the first facing surface 211, and the grip portion 222 is opposite to the second facing surface 221. It is formed (shaped) so as to be gripped from the side. Therefore, when the first member 210 is gripped with the right hand and the second member 220 is gripped with the left hand, the first facing surface 211 and the second facing surface 221 naturally face each other. With such a configuration, the operability of the input device 200 is improved.

また、第1部材210に設けられた第1、第2位置基準部231、232は、第1対向面211に沿って配置されている。すなわち、第1、第2位置基準部231、232を結ぶ線分が第1対向面211とほぼ平行となっている。特に、本実施形態では、第1、第2位置基準部231、232を結ぶ線分が第1部材210の厚さ方向に対してほぼ直交している。同様に、第2部材220に設けられた第3、第4位置基準部233、234は、第2対向面221に沿って配置されている。すなわち、第3、第4位置基準部233、234を結ぶ線分が第2対向面221とほぼ平行となっている。特に、本実施形態では、第3、第4位置基準部233、234を結ぶ線分が第2部材220の厚さ方向に対してほぼ直交している。第1位置基準部231〜第4位置基準部234をこのような配置とすることで、使用者が仮想面Fをイメージし易くなる。   Further, the first and second position reference portions 231 and 232 provided on the first member 210 are arranged along the first facing surface 211. That is, the line segment connecting the first and second position reference portions 231 and 232 is substantially parallel to the first facing surface 211. In particular, in the present embodiment, a line segment connecting the first and second position reference portions 231 and 232 is substantially orthogonal to the thickness direction of the first member 210. Similarly, the third and fourth position reference portions 233 and 234 provided on the second member 220 are arranged along the second facing surface 221. That is, the line segment connecting the third and fourth position reference portions 233 and 234 is substantially parallel to the second facing surface 221. In particular, in the present embodiment, the line segment connecting the third and fourth position reference portions 233 and 234 is substantially orthogonal to the thickness direction of the second member 220. By arranging the first position reference unit 231 to the fourth position reference unit 234 in this manner, the user can easily imagine the virtual surface F.

次に、画像表示システム100の使用方法(入力装置200の操作方法)について一例をあげて説明する。以下では、画像表示システム100を用いて自動車のデザインを行う方法について説明するが、画像表示システム100の使用方法(入力装置200の入力方法)については、特に限定されない。   Next, a method for using the image display system 100 (a method for operating the input device 200) will be described with an example. Hereinafter, a method for designing an automobile using the image display system 100 will be described. However, a method of using the image display system 100 (an input method of the input device 200) is not particularly limited.

図2に示すように、画面310には、加工対象である仮想立体構造物Xと、仮想面Fに対応し、仮想立体構造物Xを加工するための仮想加工用具900(例えば「ヘラ」のような工具)とが表示される。仮想立体構造物Xは、工業用クレイに見立てたものであり、仮想空間での位置が固定されている。そのため、使用者が移動することで、仮想立体構造物Xを前方から見たり、後方から見たり、横側から見たりすることができる。一方、仮想加工用具900は、板状の本体910と、本体910に設けられ、仮想立体構造物Xに接触させる刃部920(接触部)とを有している。このような仮想加工用具900は、仮想面Fに対応しており(仮想面F上に表示され)、特に、刃部920の位置および傾きは、仮想面Fの下辺の位置および傾きに対応している。そのため、使用者は、自身が把持している入力装置200を刃部920と対応付けることができ、より直感的な入力(操作)が可能となる。また、画面310に仮想加工用具900が表示されることで、より現実空間に近い状態(感覚)で、仮想立体構造物Xを加工することができる。   As shown in FIG. 2, a virtual three-dimensional structure X to be processed and a virtual processing tool 900 for processing the virtual three-dimensional structure X corresponding to the virtual plane F (e.g. Such a tool) is displayed. The virtual three-dimensional structure X is like an industrial clay, and the position in the virtual space is fixed. Therefore, when the user moves, the virtual three-dimensional structure X can be viewed from the front, from the rear, or from the side. On the other hand, the virtual processing tool 900 includes a plate-shaped main body 910 and a blade portion 920 (contact portion) that is provided on the main body 910 and makes contact with the virtual three-dimensional structure X. Such a virtual processing tool 900 corresponds to the virtual surface F (displayed on the virtual surface F), and in particular, the position and inclination of the blade portion 920 correspond to the position and inclination of the lower side of the virtual surface F. ing. Therefore, the user can associate the input device 200 held by the user with the blade portion 920, and more intuitive input (operation) is possible. Further, by displaying the virtual processing tool 900 on the screen 310, the virtual three-dimensional structure X can be processed in a state (sense) closer to the real space.

例えば、図4に示すように、第1部材210と第2部材220とが同一平面上に位置しているとき、仮想面Fは、矩形状の平坦面となり、対応する仮想加工用具900も矩形状で、刃部920が直線状のものとなる。なお、以下では、この状態を「基準状態」ともいる。   For example, as shown in FIG. 4, when the first member 210 and the second member 220 are located on the same plane, the virtual surface F is a rectangular flat surface, and the corresponding virtual processing tool 900 is also rectangular. In shape, the blade portion 920 is linear. Hereinafter, this state is also referred to as a “reference state”.

また、図5に示すように、基準状態から第2部材220を奥側に回転させると、仮想面Fは、捩じれた湾曲面となる。そのため、仮想加工用具900は、基準状態から捩じれた形状となる。また、第1部材210と第2部材220とを離間させると、仮想面Fが伸びる。そのため、仮想加工用具900は、基準状態から伸びた形状となる。また、図6に示すように、第1部材210と第2部材220と円弧状(扇状)に離間させると、仮想面Fは、円弧状に湾曲した平坦面となる。そのため、仮想加工用具900は、基準状態から円弧状に湾曲した形状となる。このように、第1、第2部材210、220を操作することで、仮想加工用具900の形状を自在に変化させることができる。   Moreover, as shown in FIG. 5, when the 2nd member 220 is rotated to the back | inner side from a reference | standard state, the virtual surface F turns into a twisted curved surface. Therefore, the virtual processing tool 900 has a shape twisted from the reference state. Further, when the first member 210 and the second member 220 are separated from each other, the virtual plane F extends. Therefore, the virtual processing tool 900 has a shape extending from the reference state. As shown in FIG. 6, when the first member 210 and the second member 220 are separated from each other in an arc shape (fan shape), the virtual surface F becomes a flat surface curved in an arc shape. Therefore, the virtual processing tool 900 has a shape curved in an arc shape from the reference state. Thus, by manipulating the first and second members 210 and 220, the shape of the virtual processing tool 900 can be freely changed.

このような仮想加工用具900は、第1位置基準部231、第2位置基準部232、第3位置基準部233および第4位置基準部234のそれぞれの位置情報を取得した生成部500により生成され、画像表示装置300の画面310に表示されると共に、入力装置200の変位に応じて画面310内で変位する。   Such a virtual processing tool 900 is generated by the generation unit 500 that has acquired the position information of each of the first position reference unit 231, the second position reference unit 232, the third position reference unit 233, and the fourth position reference unit 234. The image is displayed on the screen 310 of the image display device 300 and is displaced in the screen 310 according to the displacement of the input device 200.

このような構成では、刃部920を仮想立体構造物Xに接触させることで、刃部920によって仮想立体構造物Xを加工することができる。具体的には、例えば、図7に示すように、仮想加工用具900の刃部920を仮想立体構造物Xの角に押し当てながらスライドさせると、その角を削り取ることができる。また、この際、刃部920を湾曲させることで、仮想立体構造物Xの角に丸みを付けることもできる。また、例えば、図8に示すように、刃部920の端921を仮想立体構造物Xの面に押し当てながらスライドさせると、その面に溝や段差を形成することができる。このように、入力装置200を用いて仮想加工用具900を操作し、仮想立体構造物Xを加工することで、自動車をデザインすることができる。特に、入力装置200によれば、第1、第2部材210、220を両手で操作するため、仮想立体構造物の加工が現実の動作に近くなる。そのため、繊細で直感的な入力を行うことができ、仮想立体構造物Xの加工をより精密に行うことができる。   In such a configuration, by bringing the blade portion 920 into contact with the virtual three-dimensional structure X, the virtual three-dimensional structure X can be processed by the blade portion 920. Specifically, for example, as shown in FIG. 7, when the blade portion 920 of the virtual processing tool 900 is slid while pressing against the corner of the virtual three-dimensional structure X, the corner can be cut off. At this time, the corners of the virtual three-dimensional structure X can be rounded by curving the blade portion 920. For example, as shown in FIG. 8, when the end 921 of the blade 920 is slid while pressing against the surface of the virtual three-dimensional structure X, a groove or a step can be formed on the surface. In this way, by operating the virtual processing tool 900 using the input device 200 and processing the virtual three-dimensional structure X, a car can be designed. In particular, according to the input device 200, since the first and second members 210 and 220 are operated with both hands, the processing of the virtual three-dimensional structure is close to an actual operation. Therefore, delicate and intuitive input can be performed, and the virtual three-dimensional structure X can be processed more precisely.

また、別の具体例として、例えば、画面310には、図9に示すように、仮想面Fから下方に突出し、かつ仮想面Fに対して直交する仮想加工用具900が表示されるようになっている。そして、この仮想加工用具900を仮想立体構造物Xに接触させることで、仮想立体構造物Xを加工するようになっていてもよい。なお、本実施形態では、仮想面Fの中央部から突出するように仮想加工用具900が配置されているが、仮想加工用具900の配置としては、特に限定されず、例えば、仮想面Fの端部に配置されていてもよい。   As another specific example, for example, as shown in FIG. 9, a virtual processing tool 900 that protrudes downward from the virtual surface F and is orthogonal to the virtual surface F is displayed on the screen 310. ing. Then, the virtual three-dimensional structure X may be processed by bringing the virtual processing tool 900 into contact with the virtual three-dimensional structure X. In the present embodiment, the virtual processing tool 900 is disposed so as to protrude from the center of the virtual surface F. However, the placement of the virtual processing tool 900 is not particularly limited, and for example, the end of the virtual surface F It may be arranged in the part.

ここで、図3に示すように、入力装置200には少なくとも1つのボタンを有する入力部290が設けられている。入力部290としては、特に限定されず、例えば、図7ないし図9に示したような仮想立体構造物Xへの入力(加工)をキャンセルすることのできるキャンセルボタンや、仮想立体構造物Xを回転させるためのボタンや、仮想面Fの形状を固定するボタン等を含む構成とすることができる。このような入力部290を有することで、仮想立体構造物Xの加工をより容易に行うことができる。なお、入力部290のボタンの配置としては、特に限定されないが、使用者が第1部材210および第2部材220を把持した状態で操作し易い場所に配置することが好ましい。本実施形態では、第1部材210の把持部212近傍と、第2部材220の把持部222近傍とにそれぞれ3つずつ配置されており、それぞれの手の親指で操作できるようになっている。   Here, as shown in FIG. 3, the input device 200 is provided with an input unit 290 having at least one button. The input unit 290 is not particularly limited. For example, a cancel button that can cancel input (processing) to the virtual three-dimensional structure X as illustrated in FIGS. 7 to 9 or a virtual three-dimensional structure X is provided. It can be configured to include a button for rotating, a button for fixing the shape of the virtual surface F, and the like. By having such an input unit 290, the virtual three-dimensional structure X can be processed more easily. The arrangement of the buttons of the input unit 290 is not particularly limited, but it is preferably arranged in a place where the user can easily operate while holding the first member 210 and the second member 220. In the present embodiment, three each are arranged in the vicinity of the grip portion 212 of the first member 210 and in the vicinity of the grip portion 222 of the second member 220, and can be operated with the thumb of each hand.

また、図3に示すように、入力装置200には報知部250が設けられている。報知部250は、第1部材210に配置された第1報知部251と、第2部材220に配置された第2報知部252と、を有し、第1報知部251および第2報知部252によって仮想立体構造物Xに対する仮想加工用具900の接触状態が報知されるようになっている。ここで、前記「接触状態」には、例えば、仮想立体構造物Xに対する仮想加工用具900の接触強度や接触角度が挙げられる。このような報知部250を有することで、使用者が仮想立体構造物Xに対する仮想加工用具900の接触状態を認識し易くなり、仮想立体構造物Xをより思い通りに加工することができる。   As shown in FIG. 3, the input device 200 is provided with a notification unit 250. The notification unit 250 includes a first notification unit 251 disposed on the first member 210 and a second notification unit 252 disposed on the second member 220, and the first notification unit 251 and the second notification unit 252. Thus, the contact state of the virtual processing tool 900 with respect to the virtual three-dimensional structure X is notified. Here, examples of the “contact state” include a contact strength and a contact angle of the virtual processing tool 900 with respect to the virtual three-dimensional structure X. By having such a notification unit 250, the user can easily recognize the contact state of the virtual processing tool 900 with respect to the virtual three-dimensional structure X, and the virtual three-dimensional structure X can be processed more as desired.

ここで、第1報知部251は、振動部2511を有しており、第2報知部252は、振動部2521を有している。これら振動部2511、2521は、それぞれ、例えば、携帯電話(スマートフォンを含む)に内蔵されているようなバイブレーターで構成することができる。第1報知部251および第2報知部252をこのような構成とすることで、より確実に、仮想立体構造物Xに対する仮想加工用具900の接触状態を使用者に報知することができる。   Here, the first notification unit 251 includes a vibration unit 2511, and the second notification unit 252 includes a vibration unit 2521. These vibration parts 2511 and 2521 can each be comprised with the vibrator which is incorporated in the mobile phone (a smart phone is included), for example. By configuring the first notification unit 251 and the second notification unit 252 as described above, the contact state of the virtual processing tool 900 with respect to the virtual three-dimensional structure X can be more reliably notified to the user.

特に、本実施形態では、振動部2511は、第1位置基準部231と第2位置基準部232とに対応するように2つ配置されている。すなわち、第1位置基準部231の近傍に一方の振動部2511が配置されており、第2位置基準部232の近傍に他方の振動部2511が配置されている。同様に、振動部2521は、第3位置基準部233と第4位置基準部234とに対応するように2つ配置されている。すなわち、第3位置基準部233の近傍に一方の振動部2521が配置されており、第4位置基準部234の近傍に他方の振動部2521が配置されている。   In particular, in the present embodiment, two vibrating parts 2511 are arranged so as to correspond to the first position reference part 231 and the second position reference part 232. That is, one vibration part 2511 is arranged in the vicinity of the first position reference part 231, and the other vibration part 2511 is arranged in the vicinity of the second position reference part 232. Similarly, two vibration parts 2521 are arranged so as to correspond to the third position reference part 233 and the fourth position reference part 234. That is, one vibration part 2521 is arranged in the vicinity of the third position reference part 233, and the other vibration part 2521 is arranged in the vicinity of the fourth position reference part 234.

例えば、図10に示すように、仮想加工用具900を仮想立体構造物Xに押し当てた際、その接触強度が強い程、報知部250全体の振動が大きくなる。なお、接触強度は、仮想加工用具900が仮想立体構造物Xと接触する状態に対応する入力装置200の位置と、現実の入力装置200の位置とのずれに基づいて求めることができる。すなわち、入力装置200が図10の実線で示す状態のときに、仮想加工用具900が仮想立体構造物Xに接触するとすれば、その位置と現実の入力装置200の位置(鎖線で示す状態)との接触方向(押し当て方向)におけるずれ量が大きい程、接触強度が大きいとすることができる。   For example, as shown in FIG. 10, when the virtual processing tool 900 is pressed against the virtual three-dimensional structure X, the stronger the contact strength, the greater the vibration of the notification unit 250. The contact strength can be obtained based on the deviation between the position of the input device 200 corresponding to the state in which the virtual processing tool 900 is in contact with the virtual three-dimensional structure X and the actual position of the input device 200. That is, if the virtual processing tool 900 is in contact with the virtual three-dimensional structure X when the input device 200 is in the state indicated by the solid line in FIG. 10, the position and the actual position of the input device 200 (state indicated by the chain line) The larger the deviation amount in the contact direction (pressing direction), the greater the contact strength.

また、例えば、図11に示すように、仮想加工用具900を仮想立体構造物Xに押し当てた際、第1部材210側の接触強度と第2部材220側の接触強度とが等しい場合には、第1報知部251の振動強度と第2報知部252の振動強度とを等しくする。また、第1部材210側の接触強度が第2部材220側の接触強度よりも大きい場合には、第1報知部251の振動強度を第2報知部252の振動強度よりも大きくし、第1部材210側の接触強度と第2部材220側の接触強度との差が大きい程、第1報知部251の振動強度と第2報知部252の振動強度との差が大きくなる。反対に、第1部材210側の接触強度が第2部材220側の接触強度よりも小さい場合には、第1報知部251の振動強度を第2報知部252の振動強度よりも小さくし、第1部材210側の接触強度と第2部材220側の接触強度との差が大きい程、第1報知部251の振動強度と第2報知部252の振動強度との差が大きくなる。   Further, for example, as shown in FIG. 11, when the virtual processing tool 900 is pressed against the virtual three-dimensional structure X, the contact strength on the first member 210 side and the contact strength on the second member 220 side are equal. The vibration intensity of the first notification unit 251 and the vibration intensity of the second notification unit 252 are made equal. Further, when the contact strength on the first member 210 side is larger than the contact strength on the second member 220 side, the vibration strength of the first notification unit 251 is made larger than the vibration strength of the second notification unit 252, and the first The greater the difference between the contact strength on the member 210 side and the contact strength on the second member 220 side, the greater the difference between the vibration strength of the first notification unit 251 and the vibration strength of the second notification unit 252. Conversely, when the contact strength on the first member 210 side is smaller than the contact strength on the second member 220 side, the vibration strength of the first notification unit 251 is made smaller than the vibration strength of the second notification unit 252, The greater the difference between the contact strength on the first member 210 side and the contact strength on the second member 220 side, the greater the difference between the vibration strength of the first notification unit 251 and the vibration strength of the second notification unit 252.

また、例えば、図12に示すように、仮想加工用具900を仮想立体構造物Xの角に押し当てた際、刃部920が仮想立体構造物Xの角に均等に接している場合、すなわち、刃部920と面X1とのなす角θ1と、刃部920と面X2とのなす角θ2が等しい場合には、第1報知部251の振動強度と第2報知部252の振動強度とを等しくする。これに対して、刃部920が面X1側に傾いている場合、すなわち、θ1<θ2の場合には、第1報知部251の振動強度を第2報知部252の振動強度よりも大きくし、θ1とθ2との差が大きい程、第1報知部251の振動強度と第2報知部252の振動強度との差が大きくなる。反対に、刃部920が面X2側に傾いている場合、すなわち、θ1>θ2の場合には、第1報知部251の振動強度を第2報知部252の振動強度よりも小さくし、θ1とθ2との差が大きい程、第1報知部251の振動強度と第2報知部252の振動強度との差が大きくなる。   Further, for example, as shown in FIG. 12, when the virtual processing tool 900 is pressed against the corner of the virtual three-dimensional structure X, the blade portion 920 is in contact with the corner of the virtual three-dimensional structure X, that is, When the angle θ1 formed by the blade portion 920 and the surface X1 is equal to the angle θ2 formed by the blade portion 920 and the surface X2, the vibration strength of the first notification portion 251 and the vibration strength of the second notification portion 252 are equal. To do. On the other hand, when the blade portion 920 is inclined to the surface X1 side, that is, when θ1 <θ2, the vibration strength of the first notification portion 251 is made larger than the vibration strength of the second notification portion 252. As the difference between θ1 and θ2 increases, the difference between the vibration intensity of the first notification unit 251 and the vibration intensity of the second notification unit 252 increases. On the contrary, when the blade portion 920 is inclined toward the surface X2, that is, when θ1> θ2, the vibration strength of the first notification portion 251 is made smaller than the vibration strength of the second notification portion 252 and θ1 The greater the difference from θ2, the greater the difference between the vibration intensity of the first notification unit 251 and the vibration intensity of the second notification unit 252.

このように、接触状態によって報知部250の全体の振動強度を変化させたり、第1報知部251と第2報知部252の振動強度に差を付けたりすることで、使用者が仮想立体構造物Xに対する仮想加工用具900の接触状態を認識し易くなり、仮想立体構造物Xをより思い通りに加工することができる。   As described above, the user can change the overall vibration intensity of the notification unit 250 according to the contact state or make a difference between the vibration strengths of the first notification unit 251 and the second notification unit 252 so that the user can change the virtual three-dimensional structure. It becomes easy to recognize the contact state of the virtual processing tool 900 with respect to X, and the virtual three-dimensional structure X can be processed as desired.

なお、振動部2511、2521の数や配置は、特に限定されない。例えば、図13に示すような配置で、振動部2511、2521が設けられていてもよい。   Note that the number and arrangement of the vibrating portions 2511 and 2521 are not particularly limited. For example, the vibration parts 2511 and 2521 may be provided in an arrangement as shown in FIG.

<第2実施形態>
次に、本発明の第2実施形態に係る画像表示システムについて説明する。
Second Embodiment
Next, an image display system according to a second embodiment of the present invention will be described.

図14は、本発明の第2実施形態の入力装置を示す平面図である。図15は、図14に示す入力装置が有する弾性入力部の断面図である。図16は、図15に示す弾性入力部への入力方法を示す断面図である。図17および図18は、それぞれ、図15に示す弾性入力部の機能を説明する図である。図19ないし図21は、それぞれ、弾性入力部の変形例を示す断面図である。   FIG. 14 is a plan view showing an input device according to the second embodiment of the present invention. FIG. 15 is a cross-sectional view of an elastic input unit included in the input device shown in FIG. 16 is a cross-sectional view showing an input method to the elastic input unit shown in FIG. 17 and 18 are diagrams for explaining the function of the elastic input section shown in FIG. 19 to 21 are cross-sectional views showing modifications of the elastic input portion.

本実施形態に係る画像表示システムは、入力装置の構成が異なること以外は、前述した第1実施形態の画像表示システムと同様である。   The image display system according to the present embodiment is the same as the image display system of the first embodiment described above except that the configuration of the input device is different.

なお、以下の説明では、第2実施形態の画像表示システムに関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図14ないし図20では前述した実施形態と同様の構成について、同一符号を付している。   In the following description, the image display system according to the second embodiment will be described with a focus on differences from the above-described embodiment, and description of similar matters will be omitted. Further, in FIG. 14 to FIG. 20, the same reference numerals are given to the same configurations as those of the above-described embodiment.

図14に示すように、本実施形態の入力装置200は、入力部290とは別に、入力部290とは異なる構成の弾性入力部600を有している。このような弾性入力部600は、第1部材210および第2部材220のうちの一方にのみ設けられていてもよいし、両方に設けられていてもよい。なお、本実施形態では、弾性入力部600は、第1部材210にのみ設けられている。   As illustrated in FIG. 14, the input device 200 according to the present embodiment includes an elastic input unit 600 having a configuration different from the input unit 290, in addition to the input unit 290. Such an elastic input unit 600 may be provided only in one of the first member 210 and the second member 220 or may be provided in both. In the present embodiment, the elastic input unit 600 is provided only on the first member 210.

図15に示すように、弾性入力部600は、中空状の筐体610と、筐体610の外側に配置され、筐体610の外周面に配置された弾性層620と、弾性層620に配置されたマーカーMと、筐体610の内側に配置され、弾性層620の変形を検出する検出部630と、弾性層620を照らす光源640と、検出部630の検出結果から入力信号を生成する信号生成部650と、を有している。   As shown in FIG. 15, the elastic input unit 600 includes a hollow housing 610, an elastic layer 620 disposed on the outer surface of the housing 610, and an elastic layer 620. The marker M, the detection unit 630 that is disposed inside the housing 610 and detects deformation of the elastic layer 620, the light source 640 that illuminates the elastic layer 620, and a signal that generates an input signal from the detection result of the detection unit 630 A generating unit 650.

筐体610は、弾性層620を内側から支持している。また、筐体610は、中空の半球体をなし、その内側に内部空間Sを有している。筐体610の外周面には弾性層620が配置されており、内部空間Sに検出部630および光源640が収納されている。なお、筐体610の形状としては、特に限定されず、入力装置200の用途によって適宜設定することができる。   The housing 610 supports the elastic layer 620 from the inside. Moreover, the housing | casing 610 comprises a hollow hemisphere and has the internal space S inside. An elastic layer 620 is disposed on the outer peripheral surface of the housing 610, and the detection unit 630 and the light source 640 are accommodated in the internal space S. Note that the shape of the housing 610 is not particularly limited, and can be set as appropriate depending on the application of the input device 200.

また、筐体610は、硬質な部材、具体的には指による押圧程度では実質的に変形しない程度の硬さを有する部材で構成されている。また、筐体610は、光透過性を有している。本実施形態では、筐体610は、樹脂材料で構成されており、実質的に無色透明である。なお、筐体610は、例えば、弾性層620が筐体610に支持されなくても実質的に一定の形状を保つことができるような場合等には、省略してもよい。   The housing 610 is formed of a hard member, specifically, a member having a hardness that does not substantially deform when pressed by a finger. The housing 610 is light transmissive. In the present embodiment, the housing 610 is made of a resin material and is substantially colorless and transparent. Note that the housing 610 may be omitted when, for example, the elastic layer 620 can maintain a substantially constant shape even when the elastic layer 620 is not supported by the housing 610.

弾性層620は、使用者により操作される入力部としての機能を有する。例えば、弾性層620を押したり、摘まんだり、伸ばしたりすることで弾性入力部600への入力を行うことができる。これらの各動作は、人間が日常、特に意識することなく行っている動作である。また、弾性層620は、反発によって弾性層620に触れた使用者に対して「何か物に触れている」との感覚を与えることもできる。そのため、使用者は、弾性層620への直感的な入力が可能となる。また、使用者は、弾性層620への入力の強さ、方向、速度等を繊細なタッチ(感覚)で自由に決定することができるため、より細かい入力が可能となる。   The elastic layer 620 functions as an input unit operated by the user. For example, an input to the elastic input unit 600 can be performed by pressing, pinching, or stretching the elastic layer 620. Each of these operations is an operation that humans perform in daily life without particular awareness. In addition, the elastic layer 620 can give a sense of “touching something” to the user who touched the elastic layer 620 by repulsion. Therefore, the user can intuitively input to the elastic layer 620. In addition, since the user can freely determine the strength, direction, speed, and the like of input to the elastic layer 620 with a delicate touch (sense), finer input is possible.

また、弾性層620は、外力が入力される外周面620a(第1面)および外周面620aの反対側の内周面620b(第2面)が規定される層である。このような弾性層620は、弾性を有しており、弾性変形が可能である。具体的には、弾性層620は、使用者が押したり、引っ張ったり、摘まんだりすることで弾性変形する程度に柔らかい弾性を有している。   The elastic layer 620 is a layer in which an outer peripheral surface 620a (first surface) to which an external force is input and an inner peripheral surface 620b (second surface) opposite to the outer peripheral surface 620a are defined. Such an elastic layer 620 has elasticity and can be elastically deformed. Specifically, the elastic layer 620 has elasticity that is soft enough to be elastically deformed by being pushed, pulled, or picked by the user.

また、弾性層620は、筐体610の外周面側に位置し、筐体610を覆って配置されている。そのため、弾性層620は、その内周面620b側から筐体610に支持されていると言える。また、弾性層620は、筐体610の外形に倣った形状、すなわち半球状となっている。このように、弾性層620を半球状、すなわち凸状に湾曲した部分を有する形状とすることで、弾性層620への入力をより自然に行うことができる。また、弾性層620を引っ張り易くもなるし、摘まみ易くもなるため、その分、より繊細な入力を行うことができる。   The elastic layer 620 is positioned on the outer peripheral surface side of the housing 610 and is disposed so as to cover the housing 610. Therefore, it can be said that the elastic layer 620 is supported by the housing 610 from the inner peripheral surface 620b side. The elastic layer 620 has a shape that follows the outer shape of the housing 610, that is, a hemispherical shape. Thus, by making the elastic layer 620 into a hemispherical shape, that is, a shape having a convexly curved portion, input to the elastic layer 620 can be performed more naturally. In addition, the elastic layer 620 can be easily pulled and picked, so that more delicate input can be performed accordingly.

このような弾性層620には、弾性層620の変形によって変位するマーカーMが配置されている。このマーカーMは、検出部630で検出可能な検出対象である。マーカーMは、弾性層620の厚さ方向にずれて配置された第1マーカー621、第2マーカー622および第3マーカー623を有している。また、第1マーカー621、第2マーカー622および第3マーカー623は、それぞれ、ドット状すなわち点形状をなしている。また、これら第1マーカー621、第2マーカー622および第3マーカー623は、筐体610からの距離が互いに異なっている。   In such an elastic layer 620, a marker M that is displaced by deformation of the elastic layer 620 is disposed. This marker M is a detection target that can be detected by the detection unit 630. The marker M includes a first marker 621, a second marker 622, and a third marker 623 that are arranged to be shifted in the thickness direction of the elastic layer 620. The first marker 621, the second marker 622, and the third marker 623 each have a dot shape, that is, a dot shape. Further, the first marker 621, the second marker 622, and the third marker 623 are different from each other in the distance from the housing 610.

これら第1マーカー621、第2マーカー622および第3マーカー623は、それぞれ、弾性層620の変形に伴って変位する。そのため、第1マーカー621、第2マーカー622および第3マーカー623の変位に基づいて弾性層620の変形を検出でき、さらには、弾性層620の変形から弾性層620への入力を検出することができる。   The first marker 621, the second marker 622, and the third marker 623 are each displaced with the deformation of the elastic layer 620. Therefore, the deformation of the elastic layer 620 can be detected based on the displacement of the first marker 621, the second marker 622, and the third marker 623, and further, the input to the elastic layer 620 can be detected from the deformation of the elastic layer 620. it can.

また、弾性層620は、筐体610の外周に配置され、第1マーカー621を有する第1弾性層624(第1マーカー配置層)と、第1弾性層624上に配置され、第2マーカー622を有する第2弾性層625(第2マーカー配置層)と、第2弾性層625上に配置され、第3マーカー623を有する第3弾性層626(第3マーカー配置層)と、第3弾性層626上に配置された保護層627と、を有している。   The elastic layer 620 is disposed on the outer periphery of the housing 610, and is disposed on the first elastic layer 624 (first marker arrangement layer) having the first marker 621, the first elastic layer 624, and the second marker 622. A second elastic layer 625 (second marker arrangement layer), a third elastic layer 626 (third marker arrangement layer) arranged on the second elastic layer 625 and having a third marker 623, and a third elastic layer And a protective layer 627 disposed on 626.

第1弾性層624は、光透過性および弾性(復元力)を有している。そして、第1弾性層624の表面に複数の第1マーカー621が互いに離間して配置されている。また、第2弾性層625は、光透過性および弾性(復元力)を有している。そして、第2弾性層625の表面に複数の第2マーカー622が互いに離間して配置されている。また、第3弾性層626は、光透過性および弾性(復元力)を有している。そして、第3弾性層626の表面に複数の第3マーカー623が互いに離間して配置されている。   The first elastic layer 624 has optical transparency and elasticity (restoring force). A plurality of first markers 621 are arranged on the surface of the first elastic layer 624 so as to be separated from each other. The second elastic layer 625 has light transmittance and elasticity (restoring force). A plurality of second markers 622 are disposed on the surface of the second elastic layer 625 so as to be separated from each other. Further, the third elastic layer 626 has optical transparency and elasticity (restoring force). A plurality of third markers 623 are arranged on the surface of the third elastic layer 626 so as to be separated from each other.

本実施形態では、これら第1、第2、第3弾性層624、625、626は、それぞれ、実質的に無色透明である。ただし、第1、第2、第3弾性層624、625、626は、光透過性を有していれば、その少なくとも1つが、例えば、有色透明であってもよい。   In the present embodiment, each of the first, second, and third elastic layers 624, 625, and 626 is substantially colorless and transparent. However, at least one of the first, second, and third elastic layers 624, 625, and 626 may be, for example, colored and transparent as long as it has light transparency.

なお、第1、第2、第3弾性層624、625、626の構成材料としては、特に限定されず、例えば、ポリウレタン系エラストマー、スチレン系熱可塑性エラストマー、オレフィン系熱可塑性エラストマー、塩ビ系熱可塑性エラストマー、エステル系熱可塑性エラストマー、アミド系熱可塑性エラストマー、シリコーン系熱可塑性エラストマー、フッ素系熱可塑性エラストマー等の各種熱可塑性エラストマー、アクリル系ゴム、シリコーン系ゴム、ブタジエン系ゴム、スチレン系ゴム等の各種ゴム材料等が挙げられ、これらのうちの1種または2種以上を組み合わせて(例えば2層以上の積層体として)用いることができる。   The constituent materials of the first, second, and third elastic layers 624, 625, and 626 are not particularly limited, and examples thereof include polyurethane elastomers, styrene thermoplastic elastomers, olefin thermoplastic elastomers, and vinyl chloride thermoplastics. Various types of thermoplastic elastomers such as elastomers, ester-based thermoplastic elastomers, amide-based thermoplastic elastomers, silicone-based thermoplastic elastomers, fluorine-based thermoplastic elastomers, acrylic rubbers, silicone-based rubbers, butadiene-based rubbers, styrene-based rubbers, etc. Examples thereof include rubber materials and the like, and one or more of these can be used in combination (for example, as a laminate of two or more layers).

また、第1、第2、第3弾性層624、625、626の弾性率(ヤング率)は、それぞれ、特に限定されず、互いに等しくてもよいし、互いに異なっていてもよい。第1、第2、第3弾性層624、625、626の弾性率を異ならせる場合には、例えば、第1弾性層624のヤング率をE1とし、第2弾性層625のヤング率をE2とし、第3弾性層626のヤング率をE3としたとき、E1<E2<E3の関係を満足するように設計してもよいし、反対に、E1>E2>E3の関係を満足するように設計してもよい。   The elastic modulus (Young's modulus) of the first, second, and third elastic layers 624, 625, and 626 is not particularly limited, and may be equal to each other or may be different from each other. In the case where the elastic moduli of the first, second, and third elastic layers 624, 625, and 626 are made different, for example, the Young's modulus of the first elastic layer 624 is E1, and the Young's modulus of the second elastic layer 625 is E2. When the Young's modulus of the third elastic layer 626 is E3, it may be designed so as to satisfy the relationship of E1 <E2 <E3, and conversely, designed so as to satisfy the relationship of E1> E2> E3. May be.

例えば、E1>E2>E3の関係を満足するように設計した場合、弱い力F1の入力では、最も柔らかい第3弾性層626だけを実質的に変形させ、力F1よりも大きい力F2の入力では、第2、第3弾性層625、626だけを実質的に変形させ、力F2よりも大きい力F3の入力では、第1、第2、第3弾性層624、625、626を変形させるといった設計を実現することができる。この場合には、どの弾性層のマーカーMが変位したかを検出することで、入力強度を大まかに検出することができる。   For example, when designed so as to satisfy the relationship E1> E2> E3, when the weak force F1 is input, only the softest third elastic layer 626 is substantially deformed, and when the force F2 is larger than the force F1, Only the second and third elastic layers 625 and 626 are substantially deformed, and the first, second, and third elastic layers 624, 625, and 626 are deformed when the force F3 larger than the force F2 is input. Can be realized. In this case, the input intensity can be roughly detected by detecting which elastic layer marker M is displaced.

また、第1、第2、第3マーカー621、622、623は、形状および色彩の少なくとも一方が互いに異なっており、検出部630によって識別可能となっている。本実施形態では、第1、第2、第3マーカー621、622、623は、互いに色彩が異なっており、例えば、第1マーカー621が赤色、第2マーカー622が緑色、第3マーカー623が青色となっている。なお、第1、第2、第3マーカー621、622、623の色彩ではなく形状を互いに異ならせる場合には、例えば、第1マーカー621を円形、第2マーカー622を三角形、第3マーカー623を四角形とすることができる。もちろん、色彩および形状を共に異ならせてもよいし、色彩や形状を異ならせる以外の方法によって第1、第2、第3マーカー621、622、623を検出部630で識別可能としてもよい。   The first, second, and third markers 621, 622, and 623 are different from each other in at least one of shape and color, and can be identified by the detection unit 630. In the present embodiment, the first, second, and third markers 621, 622, and 623 are different in color, for example, the first marker 621 is red, the second marker 622 is green, and the third marker 623 is blue. It has become. In the case where the first, second, and third markers 621, 622, and 623 are different in shape from each other, for example, the first marker 621 is circular, the second marker 622 is triangular, and the third marker 623 is It can be a rectangle. Of course, both the color and the shape may be different, or the first, second, and third markers 621, 622, and 623 may be identifiable by the detection unit 630 by a method other than changing the color and shape.

また、第1、第2、第3マーカー621、622、623は、自然状態において、検出部630のカメラ631から見て互いに重ならないように配置されていることが好ましい。すなわち、カメラ631によって撮像される画像上で、第2マーカー622がその手前にある第1マーカー621に隠れることなく、第3マーカー623がその手前にある第1、第2マーカー621、622に隠れることがないように配置されていることが好ましい。これにより、カメラ631によって、弾性層620への入力時における第1、第2、第3マーカー621、622、623の変位をそれぞれより正確に捉えることができる。そのため、信号生成部650は、より精度のよい入力信号を生成することができる。なお、前記「自然状態」とは、例えば、静止した状態で、弾性層620に使用者が触れていない状態(言い換えると、実質的に重力以外の外力が加わっていない状態)を言う。   In addition, the first, second, and third markers 621, 622, and 623 are preferably arranged so as not to overlap each other when viewed from the camera 631 of the detection unit 630 in the natural state. That is, the third marker 623 is hidden by the first and second markers 621 and 622 in front of the second marker 622 without being hidden by the first marker 621 in front of the image captured by the camera 631. It is preferable that they are arranged so as not to occur. Accordingly, the displacement of the first, second, and third markers 621, 622, and 623 at the time of input to the elastic layer 620 can be more accurately captured by the camera 631. Therefore, the signal generator 650 can generate a more accurate input signal. The “natural state” refers to, for example, a state where the user is not touching the elastic layer 620 in a stationary state (in other words, a state in which an external force other than gravity is not substantially applied).

なお、第1、第2、第3マーカー621、622、623の構成は、それぞれ、検出部630で検出可能であれば、特に限定されない。例えば、第1、第2、第3マーカー621、622、623は、ドット状すなわち点形状に限定されず、線形状、面形状、立体形状等であってもよい。また、例えば、第1、第2、第3マーカー621、622、623は、それぞれ、第1、第2、第3弾性層624、625、626の表面に貼着されたものであってもよいし、第1、第2、第3弾性層624、625、626の表面にインク等を用いて印刷されたものであってもよい。また、例えば、弾性層620を覆うように被せる球状のシート体にマーカーMを配置した構成であってもよい。また、例えば、第1、第2、第3マーカー621、622、623は、それぞれ、第1、第2、第3弾性層624、625、626内に埋設されていてもよい。   Note that the configurations of the first, second, and third markers 621, 622, and 623 are not particularly limited as long as they can be detected by the detection unit 630, respectively. For example, the first, second, and third markers 621, 622, and 623 are not limited to dot shapes, that is, point shapes, and may be linear shapes, surface shapes, three-dimensional shapes, and the like. Further, for example, the first, second, and third markers 621, 622, and 623 may be attached to the surfaces of the first, second, and third elastic layers 624, 625, and 626, respectively. The first, second, and third elastic layers 624, 625, and 626 may be printed using ink or the like. Further, for example, the marker M may be arranged on a spherical sheet body that covers the elastic layer 620. Further, for example, the first, second, and third markers 621, 622, and 623 may be embedded in the first, second, and third elastic layers 624, 625, and 626, respectively.

保護層627は、主に、第3弾性層626を保護する機能を有している。また、保護層627は、第1、第2、第3弾性層624、625、626と同様に、光透過性および弾性を有している。本実施形態では、保護層627は、無色透明である。ただし、保護層627は、有色透明であってもよい。このような保護層627の構成材料としては、特に限定されないが、例えば、前述した第1、第2、第3弾性層624、625、626の構成材料と同様の材料が挙げられる。   The protective layer 627 mainly has a function of protecting the third elastic layer 626. In addition, the protective layer 627 has light transmittance and elasticity similarly to the first, second, and third elastic layers 624, 625, and 626. In the present embodiment, the protective layer 627 is colorless and transparent. However, the protective layer 627 may be colored and transparent. The constituent material of the protective layer 627 is not particularly limited, and examples thereof include the same materials as the constituent materials of the first, second, and third elastic layers 624, 625, and 626 described above.

以上のような弾性入力部600では、弾性層620を押したり、摘まんだり、伸ばしたりすることで入力が行われる。これらの動作は、人間が日常で行っている動作であるため、直感的な入力が可能となる。また、弾性層620への入力の強さ、方向、速度等を繊細なタッチ(感覚)で行うことができるため、繊細な入力が可能となる。なお、本実施形態では、弾性入力部600は、使用者の親指で操作できるようになっている。親指を用いることで、弾性入力部600への入力がし易くなると共に、より繊細な入力が可能となる。   In the elastic input unit 600 as described above, input is performed by pressing, pinching, or stretching the elastic layer 620. Since these operations are operations that humans perform daily, intuitive input is possible. In addition, since the strength, direction, speed, and the like of input to the elastic layer 620 can be performed with a delicate touch (sense), delicate input is possible. In the present embodiment, the elastic input unit 600 can be operated with the thumb of the user. By using the thumb, it becomes easy to input to the elastic input unit 600 and more delicate input is possible.

検出部630は、ステレオ写真法によって、弾性層620の変形を三次元的に検出する。このように、ステレオ写真法を用いることで、弾性層620の変形を比較的簡単に、かつ、精度よく検出することができる。   The detection unit 630 detects the deformation of the elastic layer 620 three-dimensionally by stereo photography. Thus, by using the stereo photography method, the deformation of the elastic layer 620 can be detected relatively easily and with high accuracy.

検出部630は、内部空間S内に配置された複数のカメラ631を有している。各カメラ631は、弾性層620の方を向いて配置されており、弾性層620を撮像可能となっている。また、弾性層620の各部は、少なくとも2つのカメラ631で撮像できるようになっており、これにより、弾性層620の各部を三次元画像認識、すなわちステレオ画像認識することができるようになっている。カメラ631としては、特に限定されず、例えば、CCDカメラ、CMOSカメラ等を用いることができる。   The detection unit 630 has a plurality of cameras 631 arranged in the internal space S. Each camera 631 is arranged facing the elastic layer 620 so that the elastic layer 620 can be imaged. In addition, each part of the elastic layer 620 can be imaged by at least two cameras 631, so that each part of the elastic layer 620 can be recognized as a three-dimensional image, that is, a stereo image. . The camera 631 is not particularly limited, and for example, a CCD camera, a CMOS camera, or the like can be used.

なお、本実施形態では、2つのカメラ631を用いて弾性層620の各部を三次元画像認識しているが、これに限定されず、例えば、複数の光軸を有するレンズを用いて1つのカメラ631で複数の画像を時分割で取得し、これらの画像を用いて弾性層620の各部を三次元画像認識してもよい。このような構成によれば、撮像部の小型化および低コスト化を図ることができる。   In this embodiment, the two layers of the elastic layer 620 are recognized using two cameras 631, but the present invention is not limited to this. For example, one camera using lenses having a plurality of optical axes is used. In 631, a plurality of images may be acquired in a time division manner, and each part of the elastic layer 620 may be recognized as a three-dimensional image using these images. According to such a configuration, it is possible to reduce the size and cost of the imaging unit.

また、検出部630は、各カメラ631からの画像情報に基づいて弾性層620の三次元画像認識を行う処理部632を有している。処理部632は、例えば、各カメラ631等の各部を制御するCPU632a、メモリー632b、フラッシュメモリー等の記憶部632c等を含んでおり、所定のプログラム(コード)を実行できるように構成されている。なお、前記プログラムは、例えば、記憶媒体に記憶されていてもよいし、外部のサーバーからダウンロードしてもよい。   The detection unit 630 includes a processing unit 632 that performs three-dimensional image recognition of the elastic layer 620 based on image information from each camera 631. The processing unit 632 includes, for example, a CPU 632a that controls each unit such as each camera 631, a memory 632b, a storage unit 632c such as a flash memory, and the like, and is configured to execute a predetermined program (code). The program may be stored in a storage medium or downloaded from an external server, for example.

ここで、前述したように、弾性入力部600への入力は、弾性層620を押したり、摘まんだり、伸ばしたり、引っ張ったりすることで行われる。そして、この入力に応じて弾性層620が変形し、当該変形に伴って第1、第2、第3マーカー621、622、623がそれぞれ変位する。具体的な例を挙げれば、例えば、図16に示すように、弾性層620のある部分が押されて変形した場合には、その直下および周囲に位置する第1、第2、第3マーカー621、622、623がそれぞれ受けた力に応じて変位する。処理部632は、このような第1、第2、第3マーカー621、622、623の変位を三次元画像認識によって検出し、その検出結果に基づいて、入力位置、入力方向、入力強度、入力速度、入力加速度等を含む入力情報(接触入力情報)を得る。   Here, as described above, the input to the elastic input unit 600 is performed by pushing, picking, stretching, or pulling the elastic layer 620. In response to this input, the elastic layer 620 is deformed, and the first, second, and third markers 621, 622, and 623 are displaced in accordance with the deformation. To give a specific example, for example, as shown in FIG. 16, when a certain portion of the elastic layer 620 is pushed and deformed, the first, second, and third markers 621 located immediately below and around the portion are arranged. , 622, and 623 are displaced according to the received force. The processing unit 632 detects such displacement of the first, second, and third markers 621, 622, and 623 by three-dimensional image recognition, and based on the detection result, the input position, the input direction, the input intensity, and the input Input information (contact input information) including speed, input acceleration, and the like is obtained.

このように、弾性層620に第1、第2、第3マーカー621、622、623が配置されていることで、検出部630は、第1、第2、第3マーカー621、622、623の変位に基づいて、弾性層620の変形をより精度よく検出することができる。特に、本実施形態では、第1、第2、第3マーカー621、622、623が弾性層620の厚さ方向にずれて配置されている。そのため、検出部630は、弾性層620の厚さ方向に異なる位置での変形を検出することができ、弾性層620の変形をより詳細に検出することができる。   As described above, the first, second, and third markers 621, 622, and 623 are arranged on the elastic layer 620, so that the detection unit 630 can detect the first, second, and third markers 621, 622, and 623. Based on the displacement, the deformation of the elastic layer 620 can be detected with higher accuracy. In particular, in the present embodiment, the first, second, and third markers 621, 622, and 623 are shifted in the thickness direction of the elastic layer 620. Therefore, the detection unit 630 can detect deformation at different positions in the thickness direction of the elastic layer 620, and can detect the deformation of the elastic layer 620 in more detail.

ここで、処理部632による入力情報の取得方法の一例について簡単に説明する。処理部632の記憶部632cには予め各カメラ631の3次元座標が記憶されている。そして、処理部632は、所定マーカーMの変位を検出するのに用いられる2台のカメラ631によって同時刻における画像を取得し、両画像中の所定マーカーMの2次元座標を取得する。次に、処理部632は、両画像中の所定マーカーMの2次元座標のずれと各カメラ631の3次元座標とに基づいて所定マーカーMの3次元座標を取得し、記憶部632cに記憶する。処理部632は、この作業をフレーム毎に連続的に行う。そして、処理部632は、前回取得した前記所定マーカーMの3次元座標と、今回新たに取得した前記所定マーカーMの3次元座標とを比較することで、その間に生じた所定マーカーMの変位を検出する。処理部632は、このような作業を全マーカーMについて行うことで、入力情報を得ることができる。なお、各カメラ631のフレームレートとしては、特に限定されず、例えば、15フレーム/秒、30フレーム/秒、60フレーム/秒等とすることができる。   Here, an example of a method for acquiring input information by the processing unit 632 will be briefly described. The storage unit 632c of the processing unit 632 stores the three-dimensional coordinates of each camera 631 in advance. Then, the processing unit 632 acquires images at the same time by the two cameras 631 used to detect the displacement of the predetermined marker M, and acquires the two-dimensional coordinates of the predetermined marker M in both images. Next, the processing unit 632 acquires the three-dimensional coordinates of the predetermined marker M based on the shift of the two-dimensional coordinates of the predetermined marker M in both images and the three-dimensional coordinates of each camera 631, and stores them in the storage unit 632c. . The processing unit 632 continuously performs this operation for each frame. Then, the processing unit 632 compares the three-dimensional coordinates of the predetermined marker M acquired last time with the three-dimensional coordinates of the predetermined marker M newly acquired this time, so that the displacement of the predetermined marker M generated during that time is compared. To detect. The processing unit 632 can obtain input information by performing such work on all the markers M. The frame rate of each camera 631 is not particularly limited, and can be, for example, 15 frames / second, 30 frames / second, 60 frames / second, or the like.

以上、処理部632による入力情報の取得方法について説明したが、入力情報の取得方法は、これに限定されない。例えば、全マーカーMについて上述の作業を行うと処理量が膨大となってしまい、処理部632の性能等によっては処理が追いつかない場合が考えられる。また、用途によっては、大まかな入力情報が得られれば、それで足りる場合も考えられる。そのため、このような場合には、例えば、処理部632は、予め選択した一部のマーカーMについてのみ上述の作業を行うようにしてもよい。   Although the input information acquisition method by the processing unit 632 has been described above, the input information acquisition method is not limited to this. For example, if the above-described operation is performed for all the markers M, the amount of processing becomes enormous, and the processing may not catch up depending on the performance of the processing unit 632 and the like. Also, depending on the application, it may be sufficient if rough input information is obtained. Therefore, in such a case, for example, the processing unit 632 may perform the above-described operation for only some of the markers M selected in advance.

また、処理部632は、例えば、自然状態における弾性層620の各部の画像を基準画像として記憶しておき、この基準画像と、上述のように得られた画像とをリアルタイムに比較して第1、第2、第3マーカー621、622、623の変位を特定することで、上記の入力情報を得てもよい。   In addition, the processing unit 632 stores, for example, an image of each part of the elastic layer 620 in a natural state as a reference image, and compares the reference image and the image obtained as described above in real time to the first. The input information may be obtained by specifying the displacement of the second and third markers 621, 622, and 623.

なお、処理部632での処理方法としては、上述の方法に限定されず、例えば、自然状態における画像と入力が行われた状態における画像とをリアルタイムに比較して、第1、第2、第3マーカー621、622、623の変位を特定することで、上記の入力信号を生成することもできる。   The processing method in the processing unit 632 is not limited to the above-described method. For example, the first, second, and second images are compared in real time with an image in a natural state and an image in an input state. By specifying the displacement of the three markers 621, 622, and 623, the input signal can be generated.

信号生成部650は、検出部630が取得した入力情報(接触入力情報)を受信し、受信した入力情報に基づいて入力信号(接触入力信号)を生成する。なお、このような信号生成部650は、検出部630に含まれていてもよい。   The signal generation unit 650 receives input information (contact input information) acquired by the detection unit 630, and generates an input signal (contact input signal) based on the received input information. Such a signal generation unit 650 may be included in the detection unit 630.

なお、本実施形態では、処理部632および信号生成部650が入力装置200内に配置されているが、これに限定されず、例えば、端末400や画像表示装置300が有していてもよいし、クラウド上に有していてもよい。   In the present embodiment, the processing unit 632 and the signal generation unit 650 are arranged in the input device 200, but the present invention is not limited to this, and the terminal 400 or the image display device 300 may have, for example. You may have on the cloud.

ここで、本実施形態では、弾性層620の各層624、625、626、627が無色透明である。そのため、カメラ631は、弾性層620を介して弾性入力部600の外界を撮像することができる。そのため、処理部632は、使用者の指の動きを捉えることができ、弾性層620に触れることのない入力、または、マーカー621、622、623が変位しない程度に軽く触れた状態での入力が可能となる。具体的には、例えば、弾性層620を撫でるように親指を動かすと、この親指の動きを処理部632が認識し、その動きに基づく入力情報から入力信号を生成することが可能となる。前述したような接触型の入力に加えて、このような非接触型の入力が可能となることで、弾性入力部600への入力の多様性が増し、操作性および利便性が向上する。   Here, in this embodiment, each layer 624, 625, 626, 627 of the elastic layer 620 is colorless and transparent. Therefore, the camera 631 can image the outside of the elastic input unit 600 through the elastic layer 620. Therefore, the processing unit 632 can capture the movement of the user's finger, and can perform an input without touching the elastic layer 620 or an input in a state where the marker 621, 622, 623 is lightly touched so as not to be displaced. It becomes possible. Specifically, for example, when the thumb is moved so that the elastic layer 620 is stroked, the movement of the thumb is recognized by the processing unit 632 and an input signal can be generated from input information based on the movement. In addition to the contact-type input as described above, the non-contact-type input can be performed, thereby increasing the variety of inputs to the elastic input unit 600 and improving the operability and convenience.

例えば、非接触型の入力に基づく入力信号は、画像認識した指と重なる部分のマーカー621、622、623が変位していない場合に生成され、画像認識した指と重なる部分のマーカー621、622、623が変位している場合には、接触型の入力に基づいた入力信号のみを生成するようになっていることが好ましい。これにより、誤った入力信号の生成を低減することができる。また、接触型の入力と非接触型の入力とを同時に行うことができるようになっていてもよい。すなわち、例えば、ある指で接触型の入力をしつつ、別の指で非接触型の入力を行うことができるようになっていてもよい。   For example, the input signal based on the non-contact type input is generated when the markers 621, 622, and 623 that overlap the image-recognized finger are not displaced, and the markers 621, 622, and the portions that overlap the image-recognized finger. When 623 is displaced, it is preferable to generate only an input signal based on a contact-type input. Thereby, generation of an erroneous input signal can be reduced. Further, the contact type input and the non-contact type input may be performed simultaneously. That is, for example, it may be possible to perform non-contact type input with another finger while performing contact type input with a certain finger.

なお、非接触型の入力は、必須ではなく、できなくてもよい。この場合、保護層627は、光透過性を有する必要がないため、光透過性を有していなくてもよい。保護層627が光透過性を有しなければ、光源640の光が弾性入力部600の外部に漏れることがないため、使用者が眩しく感じることがなくなる。   Note that non-contact input is not essential and may not be performed. In this case, since the protective layer 627 does not need to have light transmittance, the protective layer 627 may not have light transmittance. If the protective layer 627 does not transmit light, the light from the light source 640 does not leak to the outside of the elastic input unit 600, so that the user does not feel dazzling.

光源640は、筐体610の内側から弾性層620を照らすことができる。図15に示すように、光源640は、内部空間S内に配置された少なくとも1つの発光部641を有している。発光部641としては、特に限定されず、例えば、LEDを用いることができる。また、発光部641は、可視光を出射してもよいし、NIR光(近赤外光)を出射してもよいし、紫外光を出射してもよい。発光部641として可視光を出射するものを用いる場合には、各カメラ631を可視光に対応した構成とし、発光部641としてNIR光を出射するものを用いる場合には、各カメラ631をNIR光に対応した構成とし、発光部641として紫外光を出射するものを用いる場合には、各カメラ631を紫外光に対応した構成とすればよい。特に、NIR光や紫外光は、人間の目には見えないため、弾性層620を介して外部に漏れたとしても使用者が眩しく思うことがない。また、特に、各カメラ631が紫外光を出射する場合には、マーカーMは、蛍光体であってもよい。これにより、マーカーMをカメラ631によってより鮮明に撮像することができる。   The light source 640 can illuminate the elastic layer 620 from the inside of the housing 610. As shown in FIG. 15, the light source 640 includes at least one light emitting unit 641 arranged in the internal space S. The light emitting unit 641 is not particularly limited, and for example, an LED can be used. Further, the light emitting unit 641 may emit visible light, may emit NIR light (near infrared light), or may emit ultraviolet light. When a light emitting unit 641 that emits visible light is used, each camera 631 has a configuration corresponding to visible light. When a light emitting unit 641 that emits NIR light is used, each camera 631 is connected to NIR light. In the case where a light emitting unit 641 that emits ultraviolet light is used, each camera 631 may be configured to support ultraviolet light. In particular, since NIR light and ultraviolet light are not visible to the human eye, even if they leak outside through the elastic layer 620, the user does not feel dazzled. In particular, when each camera 631 emits ultraviolet light, the marker M may be a phosphor. Thereby, the marker M can be imaged more clearly by the camera 631.

なお、光源640は、例えば、外界からの光によって弾性層620を画像認識可能な程に十分に明るく保てる場合等には省略してもよい。また、内部空間Sに輝度センサーを配置して、この輝度センサーにより検知された内部空間Sの明るさに基づいて、発光部641の駆動が制御されるようになっていてもよい。これにより、例えば、内部空間S内をほぼ一定の明るさに保つことができ、検出部630による弾性層620(マーカーM)の画像認識をより安定して行うことができる。   The light source 640 may be omitted, for example, when the elastic layer 620 can be kept bright enough to allow image recognition by light from the outside. Further, a luminance sensor may be arranged in the internal space S, and the driving of the light emitting unit 641 may be controlled based on the brightness of the internal space S detected by the luminance sensor. Thereby, for example, the inside space S can be kept substantially constant brightness, and the image recognition of the elastic layer 620 (marker M) by the detection unit 630 can be performed more stably.

以上、弾性入力部600について説明した。次に、このような弾性入力部600を備えた入力装置200の使用方法について一例をあげて説明する。図17および図18に、画像表示装置300の画面310に表示される仮想加工用具900を示す。図17に示すように、通常状態(弾性入力部600からの入力が行われていない状態)では仮想加工用具900の刃部920が直線状となっている。この状態から、例えば、図18に示すように、弾性入力部600を押圧すると、当該押圧により生成された入力信号に基づいて、仮想加工用具900の刃部920が変形するようになっている。そして、刃部920を思い通りの形状に変形させた状態で仮想立体構造物Xに接触させることで、仮想立体構造物Xを刃部920の形状に倣って加工することができる。このように、刃部920の形状が弾性入力部600への入力によって変形可能に構成されていることで、仮想立体構造物Xをより繊細に加工することができる。特に、弾性入力部600を押せば刃部920が凹むようにして変形し(図18参照)、弾性入力部600を摘まめば刃部920が突出するように変形するようになっていることで、すなわち、弾性層620の変形と刃部920の変形とを連動(対応)させることで、より直感的で繊細な入力が可能となる。   The elastic input unit 600 has been described above. Next, a method for using the input device 200 including the elastic input unit 600 will be described with an example. 17 and 18 show a virtual processing tool 900 displayed on the screen 310 of the image display device 300. FIG. As shown in FIG. 17, the blade portion 920 of the virtual processing tool 900 is linear in a normal state (a state where input from the elastic input portion 600 is not performed). From this state, for example, as shown in FIG. 18, when the elastic input unit 600 is pressed, the blade portion 920 of the virtual processing tool 900 is deformed based on the input signal generated by the pressing. Then, by bringing the blade portion 920 into contact with the virtual three-dimensional structure X in a deformed shape as desired, the virtual three-dimensional structure X can be processed following the shape of the blade portion 920. Thus, since the shape of the blade portion 920 is configured to be deformable by input to the elastic input portion 600, the virtual three-dimensional structure X can be processed more delicately. In particular, if the elastic input part 600 is pushed, the blade part 920 is deformed so as to be recessed (see FIG. 18), and if the elastic input part 600 is grasped, the blade part 920 is deformed so that it protrudes. By making the deformation of the elastic layer 620 and the deformation of the blade 920 interlock (correspond), more intuitive and delicate input becomes possible.

このような第2実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。   Also according to the second embodiment, the same effects as those of the first embodiment described above can be exhibited.

なお、弾性入力部600の構成としては、上記の構成に限定されない。例えば、本実施形態では、弾性層620は、第1弾性層624と、第2弾性層625と、第3弾性層626と、を有しているが、弾性層620としては、第1弾性層624を有していれば、特に限定されず、例えば、第2弾性層625および第3弾性層626の少なくとも1つを省略してもよい。   The configuration of the elastic input unit 600 is not limited to the above configuration. For example, in this embodiment, the elastic layer 620 includes a first elastic layer 624, a second elastic layer 625, and a third elastic layer 626. The elastic layer 620 includes a first elastic layer. If it has 624, it will not specifically limit, For example, you may abbreviate | omit at least 1 of the 2nd elastic layer 625 and the 3rd elastic layer 626.

また、例えば、弾性層620は、その弾性力が可変となっていてもよい。この場合の弾性層620の構成としては、特に限定されないが、例えば、筐体610を覆い、筐体610との間に第1気密空間を有する第1被覆部と、第1被覆部の表面に配置された第1マーカー621と、第1被覆部を覆い、第1被覆部との間に第2気密空間を有する第2被覆部と、第2被覆部の表面に配置された第2マーカー622と、第2被覆部を覆い、第2被覆部との間に第3気密空間を有する第3被覆部と、第3被覆部の表面に配置された第3マーカー623と、第3被覆部を覆い、第3被覆部との間に第4気密空間を有する保護被覆部と、を有し、ポンプ等によって、第1気密空間、第2気密空間、第3気密空間、第4気密空間のそれぞれに空気、希ガス等の気体を供給することで、これら各空間の圧力が調整可能となっている構成が挙げられる。また、この場合には、例えば、第1気密空間内に配置された実質的に伸縮しない紐のようなもので、筐体610と第1被覆部とを数か所接続し、筐体610に対する第1被覆部の不本意な変位を抑制しておくことが好ましい。第2、第3、保護被覆部についても同様である。   For example, the elastic force of the elastic layer 620 may be variable. The configuration of the elastic layer 620 in this case is not particularly limited. For example, the first covering portion that covers the housing 610 and has the first airtight space between the housing 610 and the surface of the first covering portion. The first marker 621 disposed, the second covering portion covering the first covering portion and having the second airtight space between the first covering portion, and the second marker 622 disposed on the surface of the second covering portion. And a third covering portion that covers the second covering portion and has a third airtight space between the second covering portion, a third marker 623 disposed on the surface of the third covering portion, and a third covering portion A protective covering portion having a fourth airtight space between the cover and the third covering portion, and each of the first airtight space, the second airtight space, the third airtight space, and the fourth airtight space by a pump or the like. The pressure of each space can be adjusted by supplying gas such as air or rare gas Formed, and the like. Further, in this case, for example, a string that is arranged in the first airtight space and does not substantially expand and contract, and the housing 610 and the first covering portion are connected at several places, and the housing 610 is connected to the housing 610. It is preferable to suppress unintentional displacement of the first covering portion. The same applies to the second, third, and protective covering portions.

また、本実施形態では、マーカーMが、筐体610からの距離が互いに異なる第1、第2、第3マーカー621、622、623を有しているが、少なくとも1つのマーカーを有していれば、第1、第2、第3マーカー621、622、623の少なくとも1つを省略してもよい。   In the present embodiment, the marker M includes the first, second, and third markers 621, 622, and 623 that are different from each other in the distance from the housing 610. However, the marker M may include at least one marker. For example, at least one of the first, second, and third markers 621, 622, and 623 may be omitted.

また、本実施形態では、第1弾性層624に第1マーカー621を配置し、第2弾性層625に第2マーカー622を配置し、第3弾性層626に第3マーカー623を配置しているが、例えば、図19に示すように、筐体610からの距離が異なるように、1層の弾性層620内に複数のマーカーMが規則的または不規則に配置されていてもよい。   In the present embodiment, the first marker 621 is disposed on the first elastic layer 624, the second marker 622 is disposed on the second elastic layer 625, and the third marker 623 is disposed on the third elastic layer 626. However, for example, as shown in FIG. 19, a plurality of markers M may be regularly or irregularly arranged in one elastic layer 620 so that the distance from the housing 610 is different.

また、弾性入力部600は、弾性層620の変形によって変位せず、検出部630によって検出可能な基準マーカーを有していてもよい。具体的には、例えば、図20に示すように、弾性入力部600は、弾性層620が押されたり、引っ張られたりしても実質的に変位しない基準マーカー628を有していてもよい。なお、図20の構成では、基準マーカー628は、第1弾性層624と筐体610との間であって筐体610の外周面に配置されているが、基準マーカー628の配置としては、これに限定されず、例えば、筐体610の内周面に配置されていてもよい。   The elastic input unit 600 may have a reference marker that is not displaced by the deformation of the elastic layer 620 and can be detected by the detection unit 630. Specifically, for example, as shown in FIG. 20, the elastic input unit 600 may include a reference marker 628 that does not substantially displace even when the elastic layer 620 is pressed or pulled. In the configuration of FIG. 20, the reference marker 628 is disposed between the first elastic layer 624 and the housing 610 and on the outer peripheral surface of the housing 610. For example, it may be disposed on the inner peripheral surface of the housing 610.

基準マーカー628は、各カメラ631との相対的位置関係が一定であり、検出部630が第1、第2、第3マーカー621、622、623の変位を検出する際の基準として機能する。このような構成によれば、例えば、検出部630は、基準マーカー628に対する第1、第2、第3マーカー621、622、623の変位を検出することで、より精度のよい入力情報を得ることができる。なお、基準マーカー628は、検出部630が第1、第2、第3マーカー621、622、623のそれぞれと区別(識別)できるように、例えば、第1、第2、第3マーカー621、622、623と形状および色彩の少なくとも一方が異なっていることが好ましい。   The reference marker 628 has a fixed relative positional relationship with each camera 631 and functions as a reference when the detection unit 630 detects the displacement of the first, second, and third markers 621, 622, and 623. According to such a configuration, for example, the detection unit 630 obtains more accurate input information by detecting the displacement of the first, second, and third markers 621, 622, and 623 with respect to the reference marker 628. Can do. Note that the reference marker 628 is, for example, the first, second, and third markers 621 and 622 so that the detection unit 630 can distinguish (identify) each of the first, second, and third markers 621, 622, and 623. , 623 is preferably different in shape and color.

また、本実施形態では、弾性層620が保護層627を有しているが、図21に示すように、保護層627を省略してもよい。この場合には、弾性層620の表面に第3マーカー623が位置することになる。すなわち、弾性層620は、弾性層620の表面に露出する露出マーカーとしての第3マーカー623を有している。弾性層620の表面は、入力を直接的に受ける場所であるため、このような位置に第3マーカー623を配置することで、より繊細な入力が可能となる。   In this embodiment, the elastic layer 620 includes the protective layer 627, but the protective layer 627 may be omitted as shown in FIG. In this case, the third marker 623 is located on the surface of the elastic layer 620. That is, the elastic layer 620 includes a third marker 623 as an exposed marker exposed on the surface of the elastic layer 620. Since the surface of the elastic layer 620 is a place that receives input directly, by placing the third marker 623 at such a position, more delicate input is possible.

また、第3マーカー623が弾性層620の表面に露出している場合、第3マーカー623は、弾性層620の表面から突出する部分を有することが好ましい。これにより、第3マーカー623に、弾性層620を押圧する指が引っかかり易くなり、特に、弾性層620の表面で指を滑らせるような入力に対する応答性が向上する。また、この場合、第3マーカー623のヤング率は、第3弾性層626のヤング率よりも大きいことが好ましい。すなわち、第3マーカー623は、第3弾性層626よりも硬いことが好ましい。これにより、第3マーカー623にさらに指が引っかかり易くなり、上述した効果がより顕著なものとなる。   In addition, when the third marker 623 is exposed on the surface of the elastic layer 620, the third marker 623 preferably has a portion protruding from the surface of the elastic layer 620. This makes it easier for a finger pressing the elastic layer 620 to be caught by the third marker 623, and in particular, the responsiveness to input that causes the finger to slide on the surface of the elastic layer 620 is improved. In this case, the Young's modulus of the third marker 623 is preferably larger than the Young's modulus of the third elastic layer 626. That is, the third marker 623 is preferably harder than the third elastic layer 626. As a result, the finger is more easily caught by the third marker 623, and the above-described effect becomes more remarkable.

また、本実施形態では、筐体610が硬質な部材で形成されているが、例えば、筐体610が入力時に撓む程度の軟質な部材で形成されていてもよい。すなわち、弾性層620への入力があった際に、筐体610が弾性層620と共に変形してもよい。これにより、第1、第2、第3マーカー621、622、623の変位量をそれぞれより大きくすることができる。そのため、検出部630は、より高精度の入力情報を得ることができる。   Further, in the present embodiment, the housing 610 is formed of a hard member, but, for example, the housing 610 may be formed of a soft member that can be bent at the time of input. That is, the housing 610 may be deformed together with the elastic layer 620 when there is an input to the elastic layer 620. Thereby, the displacement amount of the 1st, 2nd, 3rd marker 621, 622, 623 can be made larger, respectively. Therefore, the detection unit 630 can obtain highly accurate input information.

また、入力装置200は、弾性層620への入力を行う指に触覚を提供する触覚提供部を有していてもよい。これにより、入力の感覚がより現実に近くなり、より直感的な入力が可能となる。触覚提供部の構成としては、特に限定されないが、例えば、筐体610内に複数のスピーカーを配置し、これらスピーカーのうちの少なくとも1つから弾性層620の入力箇所に向けて超音波(音波)を出力することで、弾性層620への入力を行っている指に触覚を提供するように構成されていてもよい。特に、複数のスピーカーから超音波を出力し、弾性層620の入力箇所に音の焦点を形成することで、より効果的に、前記指に触覚を提供することができる。   Further, the input device 200 may include a tactile sensation providing unit that provides a tactile sensation to a finger that performs input to the elastic layer 620. Thereby, the feeling of input becomes closer to reality and more intuitive input is possible. The configuration of the tactile sense providing unit is not particularly limited. For example, a plurality of speakers are arranged in the housing 610, and ultrasonic waves (sound waves) are directed from at least one of these speakers toward the input portion of the elastic layer 620. May be configured to provide a tactile sensation to the finger inputting to the elastic layer 620. In particular, by outputting ultrasonic waves from a plurality of speakers and forming a focal point of sound at the input portion of the elastic layer 620, a tactile sensation can be provided to the finger more effectively.

また、入力装置200は、筐体610の内側から筐体610の内周面に向けて映像光を投影し、弾性層620の外側から視認可能な画像(映像)を表示する画像投影部を有していてもよい。前記画像としては、特に限定されないが、例えば、弾性層620への入力を補助、案内する画像が挙げられる。これにより、弾性入力部600の操作性が向上し、弾性層620への入力が容易となる。なお、前記画像投影部としては、特に限定されないが、例えば、液晶型のプロジェクター、光走査型のプロジェクター等を有する構成とすることができる。   The input device 200 also has an image projection unit that projects video light from the inside of the housing 610 toward the inner peripheral surface of the housing 610 and displays an image (video) that can be viewed from the outside of the elastic layer 620. You may do it. Although it does not specifically limit as said image, For example, the image which assists and guides the input to the elastic layer 620 is mentioned. Thereby, the operativity of the elastic input part 600 improves and the input to the elastic layer 620 becomes easy. The image projection unit is not particularly limited. For example, the image projection unit may include a liquid crystal projector, an optical scanning projector, and the like.

<第3実施形態>
次に、本発明の第3実施形態に係る画像表示システムについて説明する。
<Third Embodiment>
Next, an image display system according to a third embodiment of the present invention will be described.

図22は、本発明の第3実施形態の入力装置を示す平面図である。   FIG. 22 is a plan view showing an input device according to the third embodiment of the present invention.

本実施形態に係る画像表示システムは、入力装置の構成が異なること以外は、前述した第1実施形態の画像表示システムと同様である。   The image display system according to the present embodiment is the same as the image display system of the first embodiment described above except that the configuration of the input device is different.

なお、以下の説明では、第3実施形態の画像表示システムに関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図22では前述した実施形態と同様の構成について、同一符号を付している。   In the following description, the image display system according to the third embodiment will be described with a focus on differences from the above-described embodiment, and description of similar matters will be omitted. In FIG. 22, the same reference numerals are given to the same configurations as those of the above-described embodiment.

図22に示すように、本実施形態の入力装置200は、第1部材210と第2部材220とが、第1対向面211と第2対向面221とが対向した状態で回動可能に連結している。また、本実施形態の入力装置200では、第1部材210と第2部材220とが第1対向面211と第2対向面221の並び方向に接近および離間が可能となっている。このような構成とすることで、例えば、第1実施形態のような第1部材210と第2部材220とが分離している構成と比較して、第1部材210と第2部材220との位置関係を把握し易く、その分、仮想立体構造物Xの加工がし易くなる。   As shown in FIG. 22, in the input device 200 of the present embodiment, the first member 210 and the second member 220 are coupled so as to be rotatable with the first facing surface 211 and the second facing surface 221 facing each other. doing. Further, in the input device 200 of the present embodiment, the first member 210 and the second member 220 can approach and separate in the direction in which the first facing surface 211 and the second facing surface 221 are arranged. By adopting such a configuration, for example, the first member 210 and the second member 220 are compared with the configuration in which the first member 210 and the second member 220 are separated as in the first embodiment. It is easy to grasp the positional relationship, and the virtual three-dimensional structure X is easily processed accordingly.

このような第3実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。   Also according to the third embodiment, the same effects as those of the first embodiment described above can be exhibited.

<第4実施形態>
次に、本発明の第4実施形態に係る画像表示システムについて説明する。
<Fourth embodiment>
Next, an image display system according to a fourth embodiment of the present invention will be described.

図23は、本発明の第4実施形態の入力装置を示す平面図である。   FIG. 23 is a plan view showing an input device according to the fourth embodiment of the present invention.

本実施形態に係る画像表示システムは、入力装置の構成が異なること以外は、前述した第1実施形態の画像表示システムと同様である。   The image display system according to the present embodiment is the same as the image display system of the first embodiment described above except that the configuration of the input device is different.

なお、以下の説明では、第4実施形態の画像表示システムに関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図23では前述した実施形態と同様の構成について、同一符号を付している。   In the following description, the image display system according to the fourth embodiment will be described with a focus on differences from the above-described embodiment, and description of similar matters will be omitted. In FIG. 23, the same reference numerals are given to the same configurations as those of the above-described embodiment.

本実施形態の入力装置200では、第1部材210および第2部材220は、合体および分離が可能である。なお、図23に示すように、第1部材210と第2部材220とが合体した状態では、第1対向面211と第2対向面221とが対向しており、仮想面Fが平坦面となっている。このような構成によれば、第1部材210と第2部材220とを分離させることで、前述した第1実施形態で説明したように仮想面Fの形状を変化させることができるし、第1部材210と第2部材220とを合体させることで、仮想面Fの形状を固定することができる。そのため、仮想面Fを変化させたい場合と固定したい場合との両方に対応することができる入力装置200となり、その操作性が向上する。   In the input device 200 of the present embodiment, the first member 210 and the second member 220 can be combined and separated. In addition, as shown in FIG. 23, in the state where the first member 210 and the second member 220 are combined, the first facing surface 211 and the second facing surface 221 face each other, and the virtual surface F is a flat surface. It has become. According to such a configuration, by separating the first member 210 and the second member 220, the shape of the virtual plane F can be changed as described in the first embodiment, and the first By combining the member 210 and the second member 220, the shape of the virtual plane F can be fixed. Therefore, the input device 200 can cope with both a case where the virtual plane F is desired to be changed and a case where the virtual surface F is desired to be fixed, and the operability is improved.

なお、第1部材210および第2部材220を合体、分離させる構造としては特に限定されず、例えば、磁石を利用した構成や凹凸嵌合を利用した構成とすることができる。なお、本実施形態では、凹凸嵌合を利用しており、第1、第2対向面211、221に設けられた突起281と、第1、第2対向面211、221に設けられ、突起281と嵌合可能な凹部282と、を有している。   In addition, it is not specifically limited as a structure which unites and separates the 1st member 210 and the 2nd member 220, For example, it can be set as the structure using a structure using a magnet, or uneven | corrugated fitting. In the present embodiment, uneven fitting is used, and the projections 281 provided on the first and second opposing surfaces 211 and 221 and the projections 281 provided on the first and second opposing surfaces 211 and 221 are provided. And a recess 282 that can be fitted.

このような第4実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。   According to the fourth embodiment, the same effect as that of the first embodiment described above can be exhibited.

<第5実施形態>
次に、本発明の第5実施形態に係る画像表示システムについて説明する。
<Fifth Embodiment>
Next, an image display system according to a fifth embodiment of the present invention will be described.

図24は、本発明の第5実施形態の入力装置を示す斜視図である。図25は、図24に示す入力装置の側面図である。図26は、図24に示す入力装置の使用方法の一例を示す図である。   FIG. 24 is a perspective view showing an input device according to the fifth embodiment of the present invention. FIG. 25 is a side view of the input device shown in FIG. FIG. 26 is a diagram illustrating an example of a method of using the input device illustrated in FIG.

本実施形態に係る画像表示システムは、入力装置の構成が異なること以外は、前述した第1実施形態の画像表示システムと同様である。   The image display system according to the present embodiment is the same as the image display system of the first embodiment described above except that the configuration of the input device is different.

なお、以下の説明では、第5実施形態の画像表示システムに関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図24および図25では前述した実施形態と同様の構成について、同一符号を付している。   In the following description, the image display system according to the fifth embodiment will be described with a focus on differences from the above-described embodiment, and description of similar matters will be omitted. 24 and 25, the same reference numerals are given to the same configurations as those of the above-described embodiment.

図24および図25に示すように、本実施形態の入力装置200では、第1部材210および第2部材220は、一方の手で握って把持される形状となっている。そして、第1部材210および第2部材220のそれぞれに弾性入力部600が設けられている。また、本実施形態では、弾性入力部600は、略球状となっている。また、図25に示すように、第1部材210内には、第1位置基準部231および第2位置基準部232が配置されており、さらに、報知部250(第1報知部251)が配置されている。なお、図示しないが、第2部材220内には、第1部材210と同じように、第3位置基準部233および第4位置基準部234が配置されており、さらに、報知部250(第2報知部252)が配置されている。   As shown in FIG. 24 and FIG. 25, in the input device 200 of the present embodiment, the first member 210 and the second member 220 are shaped to be grasped and gripped with one hand. An elastic input unit 600 is provided on each of the first member 210 and the second member 220. In the present embodiment, the elastic input unit 600 is substantially spherical. Further, as shown in FIG. 25, a first position reference part 231 and a second position reference part 232 are arranged in the first member 210, and a notification part 250 (first notification part 251) is further arranged. Has been. Although not shown, the third position reference unit 233 and the fourth position reference unit 234 are arranged in the second member 220 in the same manner as the first member 210, and further, the notification unit 250 (second A notification unit 252) is arranged.

このような第5実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。   According to the fifth embodiment, the same effect as that of the first embodiment described above can be exhibited.

なお、本実施形態の入力装置200は、例えば、図26に示すように、第1部材210および第2部材220を揃えた状態(例えば弾性入力部600同士を接触させた状態)で、入力装置200を手前側に引くようにして使用することができる。この動きは、「ヘラ」の動かし方と似ているため、より直感的な入力が可能となる。   Note that the input device 200 according to the present embodiment is, for example, as illustrated in FIG. 26, in a state where the first member 210 and the second member 220 are aligned (for example, the state where the elastic input units 600 are in contact with each other). It can be used by pulling 200 toward the front side. Since this movement is similar to how to move the “spatula”, more intuitive input is possible.

<第6実施形態>
次に、本発明の第6実施形態に係る画像表示システムについて説明する。
<Sixth Embodiment>
Next, an image display system according to a sixth embodiment of the present invention will be described.

図27は、本発明の第6実施形態の入力装置を示す断面図である。   FIG. 27 is a cross-sectional view showing the input device according to the sixth embodiment of the present invention.

本実施形態に係る画像表示システムは、入力装置の弾性入力部の構成が異なること以外は、前述した第2実施形態の画像表示システムと同様である。   The image display system according to the present embodiment is the same as the image display system of the second embodiment described above except that the configuration of the elastic input unit of the input device is different.

なお、以下の説明では、第6実施形態の画像表示システムに関し、前述した第2実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図27では前述した実施形態と同様の構成について、同一符号を付している。   In the following description, the image display system according to the sixth embodiment will be described with a focus on differences from the second embodiment described above, and description of similar matters will be omitted. Moreover, in FIG. 27, the same code | symbol is attached | subjected about the structure similar to embodiment mentioned above.

図27に示すように、本実施形態の入力装置200では、弾性層620は、筐体610の外周面に配置された光透過層620Aと、光透過層620Aの表面に積層された光反射層620Bと、を有している。光透過層620Aは、光透過性を有しており、特に、本実施形態では実質的に無色透明である。一方、光反射層620Bは、後述する光Lを反射する光反射性を有している。また、光透過層620Aは、弾性入力部600への入力時に光反射層620Bと共に変形し、光反射層620Bの内面620B’の形状変化を許容する機能を有している。   As shown in FIG. 27, in the input device 200 of this embodiment, the elastic layer 620 includes a light transmission layer 620A disposed on the outer peripheral surface of the housing 610, and a light reflection layer stacked on the surface of the light transmission layer 620A. 620B. The light transmission layer 620 </ b> A has light transmittance, and in particular, is substantially colorless and transparent in the present embodiment. On the other hand, the light reflection layer 620B has light reflectivity for reflecting light L described later. Further, the light transmission layer 620A has a function of deforming together with the light reflection layer 620B at the time of input to the elastic input unit 600, and allowing the shape change of the inner surface 620B 'of the light reflection layer 620B.

検出部810は、光プローブ法によって弾性層620の変形を三次元的に検出する。光プローブ法を用いることで、弾性層620の変形を比較的簡単に、かつ、精度よく検出することができる。以下、検出部810について説明する。   The detection unit 810 detects the deformation of the elastic layer 620 three-dimensionally by an optical probe method. By using the optical probe method, the deformation of the elastic layer 620 can be detected relatively easily and accurately. Hereinafter, the detection unit 810 will be described.

図27に示すように、検出部810は、光反射層620Bの内面620B’に向けて光Lを出射する光源811と、スポット状の光の一次元の位置を受光面上で検出することのできるフォトダイオードから構成される半導体位置検出素子812(PSD)と、を有する光学システム813を備えている。なお、光源811としては、特に限定されず、例えば、LD(レーザーダイオード)を用いることができる。   As shown in FIG. 27, the detection unit 810 detects a light source 811 that emits light L toward the inner surface 620B ′ of the light reflection layer 620B and a one-dimensional position of the spot-like light on the light receiving surface. And an optical system 813 having a semiconductor position detecting element 812 (PSD) composed of a photo diode. The light source 811 is not particularly limited, and for example, an LD (laser diode) can be used.

光源811から出射された光Lは、レンズ系814によって細い光束に絞られ、光反射層620Bの内面620B’上に光スポットLSを形成する。この光スポットLSは、レンズ系815によって半導体位置検出素子812の表面に結像される。このような構成では、光学システム813と光スポットLSとの間の相対的変位量Z1は、半導体位置検出素子812の表面上の像の移動量Aとして観察される。すなわち、移動量Aから相対的変位量Z1を求めることができ、内面620B’の光スポットLSが形成されている部分の座標値を求めることができる。   The light L emitted from the light source 811 is narrowed to a thin light beam by the lens system 814, and forms a light spot LS on the inner surface 620B 'of the light reflection layer 620B. The light spot LS is imaged on the surface of the semiconductor position detecting element 812 by the lens system 815. In such a configuration, the relative displacement amount Z1 between the optical system 813 and the light spot LS is observed as an image movement amount A on the surface of the semiconductor position detection element 812. That is, the relative displacement amount Z1 can be obtained from the movement amount A, and the coordinate value of the portion of the inner surface 620B 'where the light spot LS is formed can be obtained.

このような構成の検出部810によれば、例えば、自然状態における内面620B’の各部の座標値を基準座標値として記憶しておき、この基準座標値と、内面620B’の各部の座標値と、をリアルタイムに比較することで、内面620B’の変形を検出することができる。さらに、検出部810は、内面620B’の変形に基づいて、弾性層620の変形、すなわち弾性層620への入力を検出することができる。   According to the detection unit 810 having such a configuration, for example, the coordinate value of each part of the inner surface 620B ′ in the natural state is stored as the reference coordinate value, and the reference coordinate value and the coordinate value of each part of the inner surface 620B ′ , In real time, the deformation of the inner surface 620B ′ can be detected. Furthermore, the detection unit 810 can detect the deformation of the elastic layer 620, that is, the input to the elastic layer 620, based on the deformation of the inner surface 620B '.

なお、前述したように、検出部810では内面620B’の変形に基づいて弾性層620の変形を検出しているため、光反射層620Bは、薄い方が好ましい。例えば、光反射層620Bは、光透過層620Aの厚さよりも薄いことが好ましい。これにより、内面620B’を弾性層620の表面(入力が行われる面)の近くに配置することができるため、内面620B’を入力に対してより正確にかつより大きく変形させることができる。そのため、検出部810の検出精度が向上する。このようなことから、本実施形態では、光反射層620BがマーカーMとして機能しているとも言える。   As described above, since the detection unit 810 detects the deformation of the elastic layer 620 based on the deformation of the inner surface 620B ', the light reflection layer 620B is preferably thin. For example, the light reflecting layer 620B is preferably thinner than the light transmitting layer 620A. As a result, the inner surface 620B 'can be disposed near the surface of the elastic layer 620 (the surface on which input is performed), so that the inner surface 620B' can be more accurately and greatly deformed with respect to the input. Therefore, the detection accuracy of the detection unit 810 is improved. From this, it can be said that the light reflection layer 620B functions as the marker M in the present embodiment.

このような第6実施形態によっても、前述した第2実施形態と同様の効果を発揮することができる。なお、検出部810は、1つの光学システム813を用いて内面620B’の各部の座標値を求めてもよいし、複数の光学システム813を用いて内面620B’の各部の座標値を求めてもよい。   Also according to the sixth embodiment, the same effects as those of the second embodiment described above can be exhibited. Note that the detection unit 810 may obtain the coordinate values of each part of the inner surface 620B ′ using one optical system 813, or may obtain the coordinate values of each part of the inner surface 620B ′ using a plurality of optical systems 813. Good.

<第7実施形態>
次に、本発明の第7実施形態に係る画像表示システムについて説明する。
<Seventh embodiment>
Next, an image display system according to a seventh embodiment of the present invention will be described.

図28は、本発明の第7実施形態の入力装置を示す断面図である。   FIG. 28 is a cross-sectional view showing an input device according to a seventh embodiment of the present invention.

本実施形態に係る画像表示システムは、入力装置の検出部の構成が異なること以外は、前述した第6実施形態の画像表示システムと同様である。   The image display system according to the present embodiment is the same as the image display system of the sixth embodiment described above except that the configuration of the detection unit of the input device is different.

なお、以下の説明では、第7実施形態の画像表示システムに関し、前述した第6実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図28では前述した実施形態と同様の構成について、同一符号を付している。   In the following description, the image display system according to the seventh embodiment will be described with a focus on differences from the above-described sixth embodiment, and description of similar matters will be omitted. In FIG. 28, the same reference numerals are given to the same configurations as those in the above-described embodiment.

本実施形態の検出部820は、光プローブ法によって、弾性層620の変形を三次元的に検出する。図28に示すように、検出部820は、光反射層620Bの内面620B’に向けて光Lを出射する光源821(例えばLD)と、光Lを集光するレンズ系822と、光源821とレンズ系822との間に配置されたビームスプリッタ823と、ディテクタ824(フォトダイオード)と、レンズ系822を移動させるモータ825と、を有する光学システム826を備えている。   The detection unit 820 of the present embodiment detects the deformation of the elastic layer 620 three-dimensionally using an optical probe method. As illustrated in FIG. 28, the detection unit 820 includes a light source 821 (for example, LD) that emits light L toward the inner surface 620B ′ of the light reflection layer 620B, a lens system 822 that collects the light L, a light source 821, and the like. An optical system 826 having a beam splitter 823 disposed between the lens system 822, a detector 824 (photodiode), and a motor 825 for moving the lens system 822 is provided.

光源821から出射された光Lは、レンズ系822によって集光され、光反射層620Bの内面620B’上に光スポットLSを形成する。そして、内面620B’で反射した光Lは、レンズ系822を通ってビームスプリッタ823で反射した後結像する。そして、当該結像点にはディテクタ824が配置されている。また、ディテクタ824に結像点が常に位置するように、モータ825によってレンズ系822を光軸方向に移動させる。この時のレンズ系822の移動量に基づいて、内面620B’の光スポットLSが形成されている部分の座標値を求めることができる。   The light L emitted from the light source 821 is collected by the lens system 822, and forms a light spot LS on the inner surface 620B 'of the light reflection layer 620B. Then, the light L reflected by the inner surface 620 </ b> B ′ passes through the lens system 822 and is reflected by the beam splitter 823 to form an image. A detector 824 is disposed at the image point. In addition, the lens system 822 is moved in the optical axis direction by the motor 825 so that the imaging point is always positioned on the detector 824. Based on the amount of movement of the lens system 822 at this time, the coordinate value of the portion of the inner surface 620B 'where the light spot LS is formed can be obtained.

このような構成の検出部820によれば、例えば、自然状態における内面620B’の各部の座標値を基準座標値として記憶しておき、この基準座標値と、内面620B’の各部の座標値と、をリアルタイムに比較することで、内面620B’の変形を検出することができる。さらに、検出部820は、内面620B’の変形に基づいて、弾性層620の変形、すなわち弾性層620への入力を検出することができる。   According to the detection unit 820 having such a configuration, for example, the coordinate value of each part of the inner surface 620B ′ in the natural state is stored as the reference coordinate value, and the reference coordinate value and the coordinate value of each part of the inner surface 620B ′ , In real time, the deformation of the inner surface 620B ′ can be detected. Further, the detection unit 820 can detect the deformation of the elastic layer 620, that is, the input to the elastic layer 620, based on the deformation of the inner surface 620B '.

このような第7実施形態によっても、前述した第6実施形態と同様の効果を発揮することができる。なお、検出部820は、1つの光学システム826を用いて内面620B’の各部の座標値を求めてもよいし、複数の光学システム826を用いて内面620B’の各部の座標値を求めてもよい。   Also according to the seventh embodiment, the same effect as that of the sixth embodiment described above can be exhibited. Note that the detection unit 820 may obtain the coordinate value of each part of the inner surface 620B ′ using one optical system 826, or may obtain the coordinate value of each part of the inner surface 620B ′ using a plurality of optical systems 826. Good.

<第8実施形態>
次に、本発明の第8実施形態に係る画像表示システムについて説明する。
<Eighth Embodiment>
Next, an image display system according to an eighth embodiment of the present invention will be described.

図29は、本発明の第8実施形態の入力装置を示す断面図である。   FIG. 29 is a cross-sectional view showing an input device according to an eighth embodiment of the present invention.

本実施形態に係る画像表示システムは、入力装置の検出部の構成が異なること以外は、前述した第6実施形態の画像表示システムと同様である。   The image display system according to the present embodiment is the same as the image display system of the sixth embodiment described above except that the configuration of the detection unit of the input device is different.

なお、以下の説明では、第8実施形態の画像表示システムに関し、前述した第6実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図29では前述した実施形態と同様の構成について、同一符号を付している。   In the following description, the image display system according to the eighth embodiment will be described focusing on the differences from the above-described sixth embodiment, and description of similar matters will be omitted. In FIG. 29, the same reference numerals are given to the same configurations as those of the above-described embodiment.

本実施形態の検出部830は、光プローブ法によって、弾性層620の変形を三次元的に検出する。図29に示すように、検出部830は、光反射層620Bの内面620B’に向けて光Lを出射する光源831(例えばLD)と、光Lを拡大平行光とするレンズ系832と、レンズ系832を通過した光Lを集光するレンズ系833と、レンズ系832、833の間に位置する偏光ビームスプリッタ834と、偏光ビームスプリッタ834とレンズ系833との間に位置するλ/4板835と、内面620B’で反射した光Lを分割する波面分割ミラー836と、波面分割ミラー836で分割された一方の光Lを受光する第1ディテクタ837(フォトダイオード)および他方の光Lを受光する第2ディテクタ838(フォトダイオード)と、を有する光学システム839を備えている。   The detection unit 830 of the present embodiment detects the deformation of the elastic layer 620 three-dimensionally by an optical probe method. As shown in FIG. 29, the detection unit 830 includes a light source 831 (for example, LD) that emits light L toward the inner surface 620B ′ of the light reflection layer 620B, a lens system 832 that converts the light L into expanded parallel light, and a lens. A lens system 833 that collects the light L that has passed through the system 832, a polarization beam splitter 834 that is positioned between the lens systems 832 and 833, and a λ / 4 plate that is positioned between the polarization beam splitter 834 and the lens system 833. 835, a wavefront splitting mirror 836 that splits the light L reflected by the inner surface 620B ′, a first detector 837 (photodiode) that receives one light L split by the wavefront splitting mirror 836, and the other light L And an optical system 839 having a second detector 838 (photodiode).

このような構成では、内面620B’がレンズ系833の焦点位置から変位すると、反射光束が変化し、第1、第2ディテクタ837、838の光量に差が生じる。そのため、この差に基づいて、内面620B’の光Lが照射されている部分の座標値を求めることができる。   In such a configuration, when the inner surface 620 </ b> B ′ is displaced from the focal position of the lens system 833, the reflected light beam changes, and the light amounts of the first and second detectors 837 and 838 are different. Therefore, based on this difference, the coordinate value of the portion of the inner surface 620B 'irradiated with the light L can be obtained.

このような構成の検出部830によれば、例えば、自然状態における内面620B’の各部の座標値を基準座標値として記憶しておき、この基準座標値と、内面620B’の各部の座標値と、をリアルタイムに比較することで、内面620B’の変形を検出することができる。さらに、検出部830は、内面620B’の変形に基づいて、弾性層620の変形、すなわち弾性層620への入力を検出することができる。   According to the detection unit 830 having such a configuration, for example, the coordinate value of each part of the inner surface 620B ′ in the natural state is stored as the reference coordinate value, and the reference coordinate value and the coordinate value of each part of the inner surface 620B ′ , In real time, the deformation of the inner surface 620B ′ can be detected. Further, the detection unit 830 can detect the deformation of the elastic layer 620, that is, the input to the elastic layer 620, based on the deformation of the inner surface 620B '.

このような第7実施形態によっても、前述した第6実施形態と同様の効果を発揮することができる。なお、検出部830は、1つの光学システム839を用いて内面620B’の各部の座標値を求めてもよいし、複数の光学システム839を用いて内面620B’の各部の座標値を求めてもよい。   Also according to the seventh embodiment, the same effect as that of the sixth embodiment described above can be exhibited. Note that the detection unit 830 may obtain the coordinate value of each part of the inner surface 620B ′ using one optical system 839, or may obtain the coordinate value of each part of the inner surface 620B ′ using a plurality of optical systems 839. Good.

<第9実施形態>
次に、本発明の第9実施形態に係る画像表示システムについて説明する。
<Ninth Embodiment>
Next, an image display system according to a ninth embodiment of the present invention will be described.

図30は、本発明の第9実施形態の入力装置を示す断面図である。   FIG. 30 is a sectional view showing an input device according to the ninth embodiment of the present invention.

本実施形態に係る画像表示システムは、入力装置の検出部の構成が異なること以外は、前述した第6実施形態の画像表示システムと同様である。   The image display system according to the present embodiment is the same as the image display system of the sixth embodiment described above except that the configuration of the detection unit of the input device is different.

なお、以下の説明では、第9実施形態の画像表示システムに関し、前述した第6実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図30では前述した実施形態と同様の構成について、同一符号を付している。   In the following description, the image display system according to the ninth embodiment will be described with a focus on differences from the above-described sixth embodiment, and description of similar matters will be omitted. In FIG. 30, the same reference numerals are given to the same configurations as those in the above-described embodiment.

本実施形態の検出部840は、断面計測法、特に光切断法によって、弾性層620の変形を三次元的に検出する。具体的には、スリット状の光Lを内面620B’に照射し、内面620B’に写った光Lの形状に基づいて、弾性層620の変形を検出する。このような断面計測法(光切断法)を用いることで、弾性層620の変形を比較的簡単に、かつ、精度よく検出することができる。   The detection unit 840 of the present embodiment detects the deformation of the elastic layer 620 three-dimensionally by a cross-section measurement method, particularly a light cutting method. Specifically, the slit-like light L is irradiated onto the inner surface 620B ', and the deformation of the elastic layer 620 is detected based on the shape of the light L reflected on the inner surface 620B'. By using such a cross-section measurement method (light cutting method), deformation of the elastic layer 620 can be detected relatively easily and accurately.

図30に示すように、検出部840は、光反射層620Bの内面620B’に向けて光Lを出射する光源841と、光Lをスリット状にするスリット光形成部842と、光Lの光軸からずれた位置に設けられ、内面620B’に写ったスリット状の光Lを撮像する撮像素子844と、内面620B’と撮像素子844との間に位置するレンズ系845と、を有する光学システム846を備えている。   As shown in FIG. 30, the detection unit 840 includes a light source 841 that emits light L toward the inner surface 620B ′ of the light reflection layer 620B, a slit light forming unit 842 that makes the light L into a slit shape, and light of the light L. An optical system that includes an image sensor 844 that images slit-shaped light L reflected on the inner surface 620B ′ and a lens system 845 that is positioned between the inner surface 620B ′ and the image sensor 844. 846.

このような構成では、撮像素子844によって取得された画像、すなわち内面620B’に写る光Lの形状に基づいて、内面620B’の光Lが写っている部分の断面形状を取得することができる。そのため、例えば、スリット状の光Lを内面620B’の全域に走査し、内面620B’の各部の断面形状を取得することで、内面620B’の形状を検出することができる。   In such a configuration, the cross-sectional shape of the portion of the inner surface 620B ′ where the light L is reflected can be acquired based on the image acquired by the imaging element 844, that is, the shape of the light L reflected on the inner surface 620B ′. Therefore, for example, the shape of the inner surface 620B 'can be detected by scanning the slit-shaped light L over the entire inner surface 620B' and obtaining the cross-sectional shape of each part of the inner surface 620B '.

このような構成の検出部840によれば、例えば、自然状態における内面620B’の形状を基準形状として記憶しておき、この基準形状と内面620B’の形状とをリアルタイムに比較することで、内面620B’の変形を検出することができる。さらに、検出部840は、内面620B’の変形に基づいて、弾性層620の変形、すなわち弾性層620への入力を検出することができる。   According to the detection unit 840 having such a configuration, for example, the shape of the inner surface 620B ′ in a natural state is stored as a reference shape, and the inner surface is compared with the shape of the reference shape and the inner surface 620B ′ in real time. The deformation of 620B ′ can be detected. Further, the detection unit 840 can detect the deformation of the elastic layer 620, that is, the input to the elastic layer 620, based on the deformation of the inner surface 620B '.

このような第9実施形態によっても、前述した第6実施形態と同様の効果を発揮することができる。なお、検出部840は、1つの光学システム846を用いて内面620B’の全域の形状を検出してもよいし、複数の光学システム846を用いて内面620B’の全域の形状を検出してもよい。   According to the ninth embodiment, the same effect as that of the sixth embodiment described above can be exhibited. The detection unit 840 may detect the shape of the entire inner surface 620B ′ using one optical system 846, or may detect the shape of the entire inner surface 620B ′ using a plurality of optical systems 846. Good.

<第10実施形態>
次に、本発明の第10実施形態に係る画像表示システムについて説明する。
<Tenth Embodiment>
Next, an image display system according to a tenth embodiment of the present invention will be described.

図31は、本発明の第10実施形態の入力装置を示す断面図である。   FIG. 31 is a sectional view showing an input device according to the tenth embodiment of the present invention.

本実施形態に係る画像表示システムは、入力装置の検出部の構成が異なること以外は、前述した第6実施形態の画像表示システムと同様である。   The image display system according to the present embodiment is the same as the image display system of the sixth embodiment described above except that the configuration of the detection unit of the input device is different.

なお、以下の説明では、第10実施形態の画像表示システムに関し、前述した第6実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図31では前述した実施形態と同様の構成について、同一符号を付している。   In the following description, the image display system according to the tenth embodiment will be described with a focus on differences from the above-described sixth embodiment, and description of similar matters will be omitted. Moreover, in FIG. 31, the same code | symbol is attached | subjected about the structure similar to embodiment mentioned above.

本実施形態の検出部850は、等高線計測法、特に、モアレ縞を用いたモアレトポグラフィー法によって、弾性層620の変形を三次元的に検出する。具体的には、内面620B’のモアレ縞画像を取得し、このモアレ縞画像に基づいて、弾性層620の変形を検出する。このような等高線計測法を用いることで、弾性層620の変形を比較的簡単に、かつ、精度よく検出することができる。以下、検出部850について簡単に説明する。   The detection unit 850 of the present embodiment detects the deformation of the elastic layer 620 three-dimensionally by a contour measurement method, in particular, a moire topography method using moire fringes. Specifically, a moire fringe image of the inner surface 620B ′ is acquired, and deformation of the elastic layer 620 is detected based on the moire fringe image. By using such a contour measurement method, the deformation of the elastic layer 620 can be detected relatively easily and with high accuracy. Hereinafter, the detection unit 850 will be briefly described.

図31に示すように、検出部850は、光Lを出射する光源851と、撮像素子852と、光源851および撮像素子852と内面620B’との間に設けられた格子853と、を有する光学システム854を備えている。   As shown in FIG. 31, the detection unit 850 includes an optical source having a light source 851 that emits light L, an imaging element 852, and a grating 853 provided between the light source 851, the imaging element 852, and the inner surface 620B ′. A system 854 is provided.

このような構成では、格子853を通った光源851からの光Lと、格子853を通して撮像素子852で見える部分と、が交差する部分が撮像素子852により撮像される部分であり、この交点を連ねた面に実質的な等高面が作られ、撮像素子852で取得した画像には、前記等高面に応じたモアレ縞が映し出される。この画像をモアレ縞画像とすれば、当該モアレ縞画像に基づいて、内面620B’の形状を取得することができる。   In such a configuration, a portion where the light L from the light source 851 that has passed through the grating 853 intersects with a portion that can be seen by the imaging element 852 through the grating 853 is a portion that is imaged by the imaging element 852, and this intersection is connected. A substantially contour surface is created on the surface, and the moire fringes corresponding to the contour surface are displayed on the image acquired by the image sensor 852. If this image is a moire fringe image, the shape of the inner surface 620B 'can be acquired based on the moire fringe image.

このような構成の検出部850によれば、例えば、自然状態における内面620B’の形状を基準形状として記憶しておき、この基準形状と、リアルタイムに求められた内面620B’の形状と、を比較することで、内面620B’の変形を検出することができる。さらに、検出部850は、内面620B’の変形に基づいて、弾性層620の変形、すなわち弾性層620への入力を検出することができる。   According to the detection unit 850 having such a configuration, for example, the shape of the inner surface 620B ′ in the natural state is stored as a reference shape, and the reference shape is compared with the shape of the inner surface 620B ′ obtained in real time. By doing so, deformation of the inner surface 620B ′ can be detected. Further, the detection unit 850 can detect the deformation of the elastic layer 620, that is, the input to the elastic layer 620, based on the deformation of the inner surface 620B '.

このような第10実施形態によっても、前述した第6実施形態と同様の効果を発揮することができる。なお、検出部850は、1つの光学システム854を用いて内面620B’の全域の形状を検出してもよいし、複数の光学システム854を用いて内面620B’の全域の形状を検出してもよい。   The tenth embodiment can exhibit the same effects as those of the sixth embodiment described above. The detection unit 850 may detect the shape of the entire inner surface 620B ′ using one optical system 854, or may detect the shape of the entire inner surface 620B ′ using a plurality of optical systems 854. Good.

<第11実施形態>
次に、本発明の第11実施形態に係る画像表示システムについて説明する。
<Eleventh embodiment>
Next, an image display system according to an eleventh embodiment of the present invention will be described.

図32は、本発明の第11実施形態の入力装置を示す断面図である。   FIG. 32 is a cross-sectional view showing the input device according to the eleventh embodiment of the present invention.

本実施形態に係る画像表示システムは、入力装置の検出部の構成が異なること以外は、前述した第6実施形態の画像表示システムと同様である。   The image display system according to the present embodiment is the same as the image display system of the sixth embodiment described above except that the configuration of the detection unit of the input device is different.

なお、以下の説明では、第11実施形態の画像表示システムに関し、前述した第6実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図32では前述した実施形態と同様の構成について、同一符号を付している。   In the following description, the image display system according to the eleventh embodiment will be described with a focus on differences from the above-described sixth embodiment, and description of similar matters will be omitted. In FIG. 32, the same reference numerals are given to the same configurations as those of the above-described embodiment.

本実施形態の検出部860は、パターン投影法によって、弾性層620の変形を検出する。パターン投影法を用いることで、弾性層620の変形を比較的簡単に、かつ、精度よく検出することができる。図32に示すように、検出部860は、光Lからなる基準パターンを内面620B’に投影する画像投影部861と、画像投影部861の光軸からずれた位置から内面620B’に投影された基準パターンを撮像する撮像素子862と、を有する光学システム863を備えている。このような構成では、撮像素子862で取得した画像に写る基準パターンの形状に基づいて、基準パターンが投影されている部分の内面620B’の形状を検出することができる。そのため、例えば、内面620B’の全域に基準パターンを投影することで、内面620B’の形状を検出することができる。なお、内面620B’に投影する基準パターンとしては、特に限定されず、例えば、平行な直線が離間して並ぶ格子状のパターンを用いることができる。   The detection unit 860 of this embodiment detects deformation of the elastic layer 620 by a pattern projection method. By using the pattern projection method, deformation of the elastic layer 620 can be detected relatively easily and with high accuracy. As shown in FIG. 32, the detection unit 860 projects an image projection unit 861 that projects a reference pattern made of light L onto the inner surface 620B ′, and the inner surface 620B ′ from a position shifted from the optical axis of the image projection unit 861. An optical system 863 having an image sensor 862 for imaging a reference pattern is provided. In such a configuration, the shape of the inner surface 620 </ b> B ′ of the portion on which the reference pattern is projected can be detected based on the shape of the reference pattern reflected in the image acquired by the image sensor 862. Therefore, for example, the shape of the inner surface 620B 'can be detected by projecting the reference pattern over the entire inner surface 620B'. Note that the reference pattern projected onto the inner surface 620B 'is not particularly limited, and for example, a lattice pattern in which parallel straight lines are spaced apart can be used.

このような構成の検出部860によれば、例えば、自然状態における内面620B’の形状を基準形状として記憶しておき、この基準形状と、リアルタイムに求められた内面620B’の形状と、を比較することで、内面620B’の変形を検出することができる。さらに、検出部860は、内面620B’の変形に基づいて、弾性層620の変形、すなわち弾性層620への入力を検出することができる。   According to the detection unit 860 having such a configuration, for example, the shape of the inner surface 620B ′ in a natural state is stored as a reference shape, and the reference shape is compared with the shape of the inner surface 620B ′ obtained in real time. By doing so, deformation of the inner surface 620B ′ can be detected. Further, the detection unit 860 can detect the deformation of the elastic layer 620, that is, the input to the elastic layer 620, based on the deformation of the inner surface 620B '.

このような第11実施形態によっても、前述した第6実施形態と同様の効果を発揮することができる。なお、検出部860は、1つの光学システム863を用いて内面620B’の全域の形状を検出してもよいし、複数の光学システム863を用いて内面620B’の全域の形状を検出してもよい。   Also according to the eleventh embodiment, the same effects as those of the sixth embodiment described above can be exhibited. The detection unit 860 may detect the shape of the entire inner surface 620B ′ using one optical system 863, or may detect the shape of the entire inner surface 620B ′ using a plurality of optical systems 863. Good.

<第12実施形態>
次に、本発明の第12実施形態に係る画像表示システムについて説明する。
<Twelfth embodiment>
Next, an image display system according to a twelfth embodiment of the present invention will be described.

図33は、本発明の第12実施形態の入力装置を示す断面図である。   FIG. 33 is a sectional view showing an input device according to a twelfth embodiment of the present invention.

本実施形態に係る画像表示システムは、入力装置の検出部の構成が異なること以外は、前述した第6実施形態の画像表示システムと同様である。   The image display system according to the present embodiment is the same as the image display system of the sixth embodiment described above except that the configuration of the detection unit of the input device is different.

なお、以下の説明では、第12実施形態の画像表示システムに関し、前述した第6実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図33では前述した実施形態と同様の構成について、同一符号を付している。   In the following description, the image display system according to the twelfth embodiment will be described with a focus on differences from the above-described sixth embodiment, and description of similar matters will be omitted. In FIG. 33, the same reference numerals are given to the same configurations as those of the above-described embodiment.

本実施形態の検出部870は、位相シフト法によって、弾性層620の変形を検出する。位相シフト法を用いることで、弾性層620の変形を比較的簡単に、かつ、精度よく検出することができる。図33に示すように、検出部870は、基準パターンを内面620B’に投影する画像投影部871と、画像投影部871の光軸からずれた位置から内面620B’に投影された基準パターンを撮像する撮像素子872と、を有する光学システム873を備えている。   The detection unit 870 of this embodiment detects deformation of the elastic layer 620 by a phase shift method. By using the phase shift method, deformation of the elastic layer 620 can be detected relatively easily and with high accuracy. As shown in FIG. 33, the detection unit 870 captures the image projection unit 871 that projects the reference pattern onto the inner surface 620B ′, and the reference pattern projected onto the inner surface 620B ′ from a position that is shifted from the optical axis of the image projection unit 871. And an optical system 873 having an image sensor 872 for performing the above operation.

このような構成では、例えば、基準パターンとして、輝度値の明暗で正弦波を表した縞パターンを内面620B’に投影し、内面620B’に投影された基準パターンを撮像素子872で撮像する。基準パターンは、π/2ずつずらして4回投影され、その都度、撮像素子872で撮像する。こうして得られた4つの画像から、基準パターンが投影されている部分の内面620B’の形状を検出することができる。なお、基準パターンや基準パターンのずらし方等は、特に限定されない。   In such a configuration, for example, as a reference pattern, a fringe pattern that represents a sine wave with brightness and darkness is projected onto the inner surface 620B ', and the reference pattern projected onto the inner surface 620B' is imaged by the image sensor 872. The reference pattern is projected four times with a shift of π / 2, and is picked up by the image sensor 872 each time. From the four images thus obtained, the shape of the inner surface 620B 'of the portion on which the reference pattern is projected can be detected. Note that the reference pattern and the method of shifting the reference pattern are not particularly limited.

このような構成の検出部870によれば、例えば、自然状態における内面620B’の形状を基準形状として記憶しておき、この基準形状と、リアルタイムに求められた内面620B’の形状と、を比較することで、内面620B’の変形を検出することができる。さらに、検出部870は、内面620B’の変形に基づいて、弾性層620の変形、すなわち弾性層620への入力を検出することができる。   According to the detection unit 870 having such a configuration, for example, the shape of the inner surface 620B ′ in the natural state is stored as a reference shape, and the reference shape is compared with the shape of the inner surface 620B ′ obtained in real time. By doing so, deformation of the inner surface 620B ′ can be detected. Further, the detection unit 870 can detect the deformation of the elastic layer 620, that is, the input to the elastic layer 620, based on the deformation of the inner surface 620B '.

このような第12実施形態によっても、前述した第6実施形態と同様の効果を発揮することができる。なお、検出部870は、1つの光学システム873を用いて内面620B’の全域の形状を検出してもよいし、複数の光学システム873を用いて内面620B’の全域の形状を検出してもよい。   Also according to the twelfth embodiment, the same effects as those of the sixth embodiment described above can be exhibited. The detection unit 870 may detect the shape of the entire inner surface 620B ′ using one optical system 873, or may detect the shape of the entire inner surface 620B ′ using a plurality of optical systems 873. Good.

なお、前述した第6実施形態から本実施形態まで、光学的な方法によって内面620B’の形状変化を検出し、これにより、弾性入力部600への入力を検出する方法について説明したが、内面620B’の形状変化を検出する方法としては、第6実施形態から本実施形態に限定されない。すなわち、内面620B’の形状を検出することができれば、如何なる方法を用いてもよい。例えば、いわゆる「点計測式」の方法であれば、前述した第6、第7、第8実施形態で説明した光プローブ方式の他にも、超音波プローブを用いた超音波方式、磁気を利用した磁気方式等を用いることができる。また、いわゆる「面計測式」の方法であれば、シルエット法、光包絡線法、前述した第9実施形態で説明した光切断法等を含む断面計測方式、干渉縞法、ホログラフィ法、前述した第10実施形態のモアレトポグラフィー法等を含む等高線計測方式を用いることができる。   In addition, from the sixth embodiment to the present embodiment described above, the method of detecting the shape change of the inner surface 620B ′ by an optical method and thereby detecting the input to the elastic input unit 600 has been described, but the inner surface 620B has been described. The method for detecting the shape change of 'is not limited to the sixth embodiment to the present embodiment. That is, any method may be used as long as the shape of the inner surface 620B 'can be detected. For example, in the case of a so-called “point measurement method”, in addition to the optical probe methods described in the sixth, seventh, and eighth embodiments, an ultrasonic method using an ultrasonic probe and magnetism are used. The magnetic system etc. which were made can be used. Further, if it is a so-called “surface measurement type” method, the cross-section measurement method including the silhouette method, the light envelope method, the light section method described in the ninth embodiment, the interference fringe method, the holography method, A contour line measurement method including the moire topography method of the tenth embodiment can be used.

<第13実施形態>
次に、本発明の第13実施形態に係る画像表示システムについて説明する。
<13th Embodiment>
Next, an image display system according to a thirteenth embodiment of the present invention is described.

図34は、本発明の第13実施形態の入力装置を示す断面図である。   FIG. 34 is a cross-sectional view showing an input device according to a thirteenth embodiment of the present invention.

本実施形態に係る画像表示システムは、入力装置の弾性入力部の構成が異なること以外は、前述した第2実施形態の画像表示システムと同様である。   The image display system according to the present embodiment is the same as the image display system of the second embodiment described above except that the configuration of the elastic input unit of the input device is different.

なお、以下の説明では、第13実施形態の画像表示システムに関し、前述した第2実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図34では前述した実施形態と同様の構成について、同一符号を付している。   In the following description, the image display system according to the thirteenth embodiment will be described with a focus on differences from the second embodiment described above, and description of similar matters will be omitted. In FIG. 34, the same reference numerals are given to the same configurations as those of the above-described embodiment.

図34に示すように、弾性層620は、筐体610の外周面に配置された光透過層620Aと、光透過層620Aの表面に積層された画像表示層620Cと、を有している。光透過層620Aは、光透過性を有しており、特に、本実施形態では実質的に無色透明である。一方、画像表示層620Cは、光反射性を有しており、後述する画像投影部890からの光によって画像が表示される層である。光透過層620Aは、弾性入力部600への入力時に画像表示層620Cと共に変形し、画像表示層620Cの内面620C’の形状変化を許容する機能を有している。   As shown in FIG. 34, the elastic layer 620 includes a light transmission layer 620A disposed on the outer peripheral surface of the housing 610, and an image display layer 620C laminated on the surface of the light transmission layer 620A. The light transmission layer 620 </ b> A has light transmittance, and in particular, is substantially colorless and transparent in the present embodiment. On the other hand, the image display layer 620C has light reflectivity, and is a layer on which an image is displayed by light from an image projection unit 890 described later. The light transmission layer 620A is deformed together with the image display layer 620C at the time of input to the elastic input unit 600, and has a function of allowing the shape change of the inner surface 620C ′ of the image display layer 620C.

また、本実施形態の入力装置200は、筐体610内に配置された画像投影部890を有している。なお、画像投影部890としては、特に限定されないが、例えば、液晶型のプロジェクター、光走査型のプロジェクター等を有する構成とすることができる。   In addition, the input device 200 of the present embodiment includes an image projection unit 890 arranged in the housing 610. Note that the image projection unit 890 is not particularly limited, and for example, may be configured to include a liquid crystal projector, an optical scanning projector, and the like.

そして、画像投影部890からの光によって画像表示層620Cの内面620C’に所定の画像が表示されるようになっている。特に、本実施形態では、画像投影部890によって画像表示層620Cの内面620C’に、マーカーMが表示される。すなわち、本実施形態の入力装置200では、内面620C’にマーカーMを表示することで、弾性層620にマーカーMを配置している。これにより、マーカーMのパターンを目的に応じて変更することができるため、入力装置200は、優れた利便性を発揮することができる。   A predetermined image is displayed on the inner surface 620 </ b> C ′ of the image display layer 620 </ b> C by light from the image projection unit 890. In particular, in the present embodiment, the marker M is displayed on the inner surface 620C ′ of the image display layer 620C by the image projection unit 890. That is, in the input device 200 of this embodiment, the marker M is arranged on the elastic layer 620 by displaying the marker M on the inner surface 620C ′. Thereby, since the pattern of the marker M can be changed according to the purpose, the input device 200 can exhibit excellent convenience.

このようなマーカーMは、内面620C’の変形に伴って変位するため、検出部630は、マーカーMの変位を検出することで、内面620C’の変形を検出することができる。さらに、検出部630は、内面620C’の変形に基づいて、弾性層620の変形、すなわち弾性層620への入力を検出することができる。   Since such a marker M is displaced with the deformation of the inner surface 620C ′, the detection unit 630 can detect the deformation of the inner surface 620C ′ by detecting the displacement of the marker M. Further, the detection unit 630 can detect the deformation of the elastic layer 620, that is, the input to the elastic layer 620, based on the deformation of the inner surface 620C '.

このような第13実施形態によっても、前述した第2実施形態と同様の効果を発揮することができる。   Also according to the thirteenth embodiment, the same effects as those of the second embodiment described above can be exhibited.

<第14実施形態>
次に、本発明の第14実施形態に係る画像表示システムについて説明する。
<Fourteenth embodiment>
Next, an image display system according to a fourteenth embodiment of the present invention is described.

図35ないし図37は、それぞれ、本発明の第14実施形態の入力装置を示す断面図である。   35 to 37 are sectional views showing an input device according to a fourteenth embodiment of the present invention.

本実施形態に係る画像表示システムは、入力装置の弾性入力部の構成が異なること以外は、前述した第2実施形態の画像表示システムと同様である。   The image display system according to the present embodiment is the same as the image display system of the second embodiment described above except that the configuration of the elastic input unit of the input device is different.

なお、以下の説明では、第14実施形態の画像表示システムに関し、前述した第2実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図35ないし図37では前述した実施形態と同様の構成について、同一符号を付している。   In the following description, the image display system according to the fourteenth embodiment will be described with a focus on differences from the second embodiment described above, and description of similar matters will be omitted. 35 to 37, the same reference numerals are given to the same configurations as those of the above-described embodiment.

図35に示すように、本実施形態の入力装置200では、第1マーカー621は、第1弾性層624と第2弾性層625との間に配置され、膜状(シート状)をなしている。また、第2マーカー622は、第2弾性層625と第3弾性層626との間に配置され、膜状(シート状)をなしている。また、第3マーカー623は、第3弾性層626と保護層627との間に配置され、膜状(シート状)をなしている。これら第1、第2、第3マーカー621、622、623は、それぞれ、弾性層620の変形に伴って変形する。   As shown in FIG. 35, in the input device 200 of the present embodiment, the first marker 621 is disposed between the first elastic layer 624 and the second elastic layer 625, and forms a film (a sheet). . The second marker 622 is disposed between the second elastic layer 625 and the third elastic layer 626 and has a film shape (sheet shape). The third marker 623 is disposed between the third elastic layer 626 and the protective layer 627 and has a film shape (sheet shape). Each of the first, second, and third markers 621, 622, and 623 is deformed as the elastic layer 620 is deformed.

また、第1マーカー621、第2マーカー622および第3マーカー623は、それぞれ、特定の波長の光を反射し、それ以外の波長の光を透過する。また、第1マーカー621、第2マーカー622および第3マーカー623は、それぞれ、反射する光の波長が異なっている。このような第1マーカー621、第2マーカー622および第3マーカー623としては、例えば、ダイクロイックフィルター等の光学フィルターを用いることができる。   The first marker 621, the second marker 622, and the third marker 623 each reflect light having a specific wavelength and transmit light having other wavelengths. The first marker 621, the second marker 622, and the third marker 623 have different wavelengths of reflected light. As such first marker 621, second marker 622, and third marker 623, for example, an optical filter such as a dichroic filter can be used.

また、本実施形態の入力装置200は、前述した第6実施形態で用いられている検出部810を有している。また、図35〜図37に示すように、検出部810は、第1マーカー621の変形を検出する第1検出部810Aと、第2マーカー622の変形を検出する第2検出部810Bと、第3マーカー623の変形を検出する第3検出部810Cと、を有している。   Moreover, the input device 200 of this embodiment has the detection part 810 used by 6th Embodiment mentioned above. 35 to 37, the detection unit 810 includes a first detection unit 810A that detects deformation of the first marker 621, a second detection unit 810B that detects deformation of the second marker 622, A third detection unit 810 </ b> C that detects deformation of the three marker 623.

図35に示すように、第1検出部810Aでは、光源811から第1マーカー621で反射される波長の光L1が出射される。一方、半導体位置検出素子812には、光L1を透過し、後述する光L2、L3の透過を阻止する図示しないバンドパスフィルターが配置されている。そのため、第1検出部810Aは、光L1を用いて、第1マーカー621の変形を検出することができる。第1検出部810Aは、例えば、自然状態における第1マーカー621の各部の座標値を基準座標値として記憶しておき、この基準座標値と、第1マーカー621の各部の座標値と、をリアルタイムに比較することで、第1マーカー621の変形を検出することができる。   As shown in FIG. 35, in the first detection unit 810A, light L1 having a wavelength reflected by the first marker 621 is emitted from the light source 811. On the other hand, the semiconductor position detecting element 812 is provided with a band-pass filter (not shown) that transmits the light L1 and blocks light L2 and L3 described later. Therefore, the first detection unit 810A can detect the deformation of the first marker 621 using the light L1. For example, the first detection unit 810A stores the coordinate values of the respective parts of the first marker 621 in the natural state as reference coordinate values, and the reference coordinate values and the coordinate values of the respective parts of the first marker 621 are stored in real time. The deformation of the first marker 621 can be detected by comparing with the above.

また、図36に示すように、第2検出部810Bでは、光源811から第2マーカー622で反射される波長の光L2が出射される。なお、この光L2は、第1マーカー621を透過する。一方、半導体位置検出素子812には、光L2を透過し、光L1、L3の透過を阻止する図示しないバンドパスフィルターが配置されている。そのため、第2検出部810Bは、光L2を用いて、第2マーカー622の変形を検出することができる。第2検出部810Bは、例えば、自然状態における第2マーカー622の各部の座標値を基準座標値として記憶しておき、この基準座標値と、第2マーカー622の各部の座標値と、をリアルタイムに比較することで、第2マーカー622の変形を検出することができる。   As shown in FIG. 36, in the second detection unit 810B, light L2 having a wavelength reflected by the second marker 622 is emitted from the light source 811. The light L2 passes through the first marker 621. On the other hand, the semiconductor position detecting element 812 is provided with a bandpass filter (not shown) that transmits the light L2 and blocks the transmission of the light L1 and L3. Therefore, the second detection unit 810B can detect the deformation of the second marker 622 using the light L2. For example, the second detection unit 810B stores the coordinate values of the respective parts of the second marker 622 in the natural state as reference coordinate values, and the reference coordinate values and the coordinate values of the respective parts of the second marker 622 are stored in real time. The deformation of the second marker 622 can be detected by comparing with the above.

また、図37に示すように、第3検出部810Cでは、光源811から第3マーカー623で反射される波長の光L3が出射される。なお、この光L3は、第1マーカー621および第2マーカー622を透過する。一方、半導体位置検出素子812には、光L3を透過し、光L1、L2の透過を阻止する図示しないバンドパスフィルターが配置されている。そのため、第3検出部810Cは、光L3を用いて、第3マーカー623の変形を検出することができる。第3検出部810Cは、例えば、自然状態における第3マーカー623の各部の座標値を基準座標値として記憶しておき、この基準座標値と、第3マーカー623の各部の座標値と、をリアルタイムに比較することで、第3マーカー623の変形を検出することができる。   As shown in FIG. 37, in the third detector 810C, light L3 having a wavelength reflected by the third marker 623 is emitted from the light source 811. The light L3 passes through the first marker 621 and the second marker 622. On the other hand, the semiconductor position detecting element 812 is provided with a bandpass filter (not shown) that transmits the light L3 and blocks the transmission of the light L1 and L2. Therefore, the third detection unit 810C can detect the deformation of the third marker 623 using the light L3. For example, the third detection unit 810C stores the coordinate values of the respective parts of the third marker 623 in the natural state as reference coordinate values, and the reference coordinate values and the coordinate values of the respective parts of the third marker 623 are stored in real time. By comparing with the above, the deformation of the third marker 623 can be detected.

このような構成の検出部810によれば、第1検出部810Aで検出された第1マーカー621の変形、第2検出部810Bで検出された第2マーカー622の変形および第3検出部810Cで検出された第3マーカー623の変形に基づいて弾性層620の変形を検出することができる。   According to the detection unit 810 having such a configuration, the deformation of the first marker 621 detected by the first detection unit 810A, the deformation of the second marker 622 detected by the second detection unit 810B, and the third detection unit 810C. The deformation of the elastic layer 620 can be detected based on the detected deformation of the third marker 623.

このような第14実施形態によっても、前述した第2実施形態と同様の効果を発揮することができる。なお、本実施形態では、3つの検出部810A、810B、810Cを有しているが、これに限定されず、1つの検出部810を有する構成であってもよい。この場合には、例えば、光源811が光L1、L2、L3を周期的に切り替えて出射するように構成し、第1、第2、第3マーカー621、622、623の変形を時分割で検出するようにすればよい。   Also according to the fourteenth embodiment, the same effects as those of the second embodiment described above can be exhibited. In this embodiment, the three detection units 810A, 810B, and 810C are provided. However, the present invention is not limited to this, and a configuration having one detection unit 810 may be used. In this case, for example, the light source 811 is configured to periodically switch and emit the light L1, L2, and L3, and the deformation of the first, second, and third markers 621, 622, and 623 is detected in a time division manner. You just have to do it.

また、検出部810に替えて、例えば、前述した第7実施形態から第12実施形態で説明したような検出部820、830、840、850、860、870を用いてもよい。   Further, instead of the detection unit 810, for example, the detection units 820, 830, 840, 850, 860, and 870 described in the seventh to twelfth embodiments may be used.

<第15実施形態>
次に、本発明の第15実施形態に係る画像表示システムについて説明する。
<Fifteenth embodiment>
Next, an image display system according to a fifteenth embodiment of the present invention is described.

図38は、本発明の第15実施形態の入力装置を示す平面図である。図39は、仮想立体構造物の一例を示す図である。図40は、仮想立体構造物の加工方法を示す図である。図41ないし図43は、それぞれ、報知部の作動を説明するための図である。   FIG. 38 is a plan view showing an input device according to a fifteenth embodiment of the present invention. FIG. 39 is a diagram illustrating an example of a virtual three-dimensional structure. FIG. 40 is a diagram illustrating a method for processing a virtual three-dimensional structure. 41 to 43 are diagrams for explaining the operation of the notification unit.

本実施形態に係る画像表示システムは、入力装置の構成が異なること以外は、前述した第1実施形態の画像表示システムと同様である。   The image display system according to the present embodiment is the same as the image display system of the first embodiment described above except that the configuration of the input device is different.

入力装置700は、図38に示すように、使用者が把持して使用するものである。入力装置700は、長尺な板状をなす基体710を有している。基体710は、例えば、両端部において両手で把持される。基体710の形状としては、特に限定されず、例えば、棒状をなしていてもよい。また、図示しないが、基体710には、例えば、腕を通すことのできるストラップ等の、基体710の落下を防止することのできる落下防止部が設けられていることが好ましい。   As shown in FIG. 38, the input device 700 is used by a user. The input device 700 has a base 710 having a long plate shape. For example, the base 710 is held with both hands at both ends. The shape of the base 710 is not particularly limited, and may be, for example, a rod shape. Further, although not shown, it is preferable that the base 710 is provided with a fall prevention unit that can prevent the base 710 from dropping, such as a strap through which an arm can pass.

また、入力装置700は、基体710に設けられ、互いに離間した第1位置基準部720および第2位置基準部730と、基体710に設けられ、所定方向Zを検出する方向検出部740と、を有している。そして、第1位置基準部720および第2位置基準部730で定まる仮想直線Lvと、所定方向Zと、で定まる仮想面Fの情報(以下、「仮想面情報」ともいう。)が生成されるようになっている。なお、仮想直線Lvは、第1位置基準部720および第2位置基準部730を結ぶ仮想直線として定めることができ、また、第1位置基準部720および第2位置基準部730を結ぶ仮想直線とほぼ平行な仮想直線として定めることができる。また、仮想面Fは、例えば、上記のようにして定められた仮想直線Lvと、この仮想直線Lvと交わり所定方向Zに沿う軸と、を含む仮想面として定めることができる。   The input device 700 includes a first position reference unit 720 and a second position reference unit 730 that are provided on the base 710 and are spaced apart from each other, and a direction detection unit 740 that is provided on the base 710 and detects a predetermined direction Z. Have. Then, information on the virtual surface F determined by the virtual straight line Lv determined by the first position reference unit 720 and the second position reference unit 730 and the predetermined direction Z (hereinafter also referred to as “virtual surface information”) is generated. It is like that. Note that the virtual straight line Lv can be defined as a virtual straight line connecting the first position reference unit 720 and the second position reference unit 730, and a virtual straight line connecting the first position reference unit 720 and the second position reference unit 730. It can be defined as a substantially parallel virtual straight line. The virtual surface F can be defined as a virtual surface including the virtual straight line Lv determined as described above and an axis that intersects the virtual straight line Lv and extends along the predetermined direction Z, for example.

特に、本実施形態では、所定方向Zは、鉛直方向である。そのため、仮想面Fは、鉛直方向と平行な平面、言い換えると、鉛直方向を面内に含む平面で構成される。このような向きの仮想面Fとすることで、後述するように、仮想面Fに基づいて画面310中に表示される仮想加工用具900の姿勢が自然なものとなり、仮想加工用具900を用いて仮想立体構造物Xを加工し易くなる。なお、所定方向Zは、鉛直方向に限定されず、例えば、水平方向であってもよいし、鉛直方向および水平方向の両方に対して傾斜した方向であってもよい。   In particular, in the present embodiment, the predetermined direction Z is a vertical direction. Therefore, the virtual plane F is configured by a plane parallel to the vertical direction, in other words, a plane including the vertical direction in the plane. By setting the virtual surface F in such an orientation, the posture of the virtual processing tool 900 displayed on the screen 310 based on the virtual surface F becomes natural as will be described later, and the virtual processing tool 900 is used. It becomes easy to process the virtual three-dimensional structure X. The predetermined direction Z is not limited to the vertical direction, and may be, for example, a horizontal direction or a direction inclined with respect to both the vertical direction and the horizontal direction.

画像表示システム100は、仮想面情報を生成する生成部500を有している。生成部500は、例えば、基体710に内蔵されていたり、端末400や画像表示装置300に内蔵されていたりする。なお、本実施形態では、生成部500は、端末400に内蔵されている。また、生成部500が生成する仮想面情報には、仮想面Fの傾きおよび仮想面Fの位置が含まれている。   The image display system 100 includes a generation unit 500 that generates virtual surface information. The generation unit 500 is, for example, built in the base 710 or built in the terminal 400 or the image display device 300. In the present embodiment, the generation unit 500 is built in the terminal 400. In addition, the virtual surface information generated by the generation unit 500 includes the inclination of the virtual surface F and the position of the virtual surface F.

第1位置基準部720および第2位置基準部730の構成は、それぞれ、現実空間内でのその位置を検知することができれば特に限定されず、例えば、GPS(Globle Postioning System)等の空間内での位置を検知する装置や、気圧センサー等の空間内での高さ(高度)を検知する装置や、3軸加速度センサー(互いに直交するX軸、Y軸およびZ軸のそれぞれの軸方向の加速度を検知することのできるセンサー)および3軸角速度センサー(互いに直交するX軸、Y軸およびZ軸のそれぞれの軸まわりの角速度を検知することのできるセンサー)を組み合わせた6軸モーションセンサー等の傾きを検知する装置や、複数のカメラを用いた空間認識技術において各カメラで捉えられるポイント(マーカー)等の1つを用いてもよいし、2つ以上を組み合わせて用いてもよい。   The configurations of the first position reference unit 720 and the second position reference unit 730 are not particularly limited as long as their positions in the real space can be detected. For example, in the space such as a GPS (Global Positioning System). A device that detects the position of the sensor, a device that detects the height (altitude) in the space, such as a barometric pressure sensor, and a triaxial acceleration sensor (acceleration in the axial directions of the X, Y, and Z axes orthogonal to each other) 6-axis motion sensor combined with a 3-axis angular velocity sensor (sensor capable of detecting angular velocities around the X, Y, and Z axes orthogonal to each other) One of points (markers) that can be captured by each camera in space recognition technology using multiple cameras May be used, or two or more may be used in combination.

また、第1位置基準部720および第2位置基準部730は、長尺状の基体710の両端部に設けられている。そのため、第1位置基準部720と第2位置基準部730を結ぶ線分(すなわち、仮想直線Lv)は、基体710の長手方向(延在方向)とほぼ一致している。後述するように、仮想面Fに基づいて画面310中に表示される仮想加工用具900は、仮想立体構造物Xと接触し、仮想立体構造物Xを削る刃部(接触部)920を有しており、刃部920の傾きは、仮想直線Lvの傾きに対応している。そのため、仮想直線Lvを基体710の長手方向(延在方向)とほぼ一致させることで、基体710の長手方向の傾きが刃部920の傾きに対応することになる。よって、使用者に、刃部920の傾きをイメージさせ易くなり、使用者は、画面310中において、より自然に、仮想立体構造物Xを加工することができる。   Further, the first position reference part 720 and the second position reference part 730 are provided at both ends of the elongated base 710. Therefore, a line segment (that is, a virtual straight line Lv) connecting the first position reference portion 720 and the second position reference portion 730 substantially coincides with the longitudinal direction (extending direction) of the base 710. As will be described later, the virtual processing tool 900 displayed on the screen 310 based on the virtual plane F has a blade portion (contact portion) 920 that contacts the virtual three-dimensional structure X and cuts the virtual three-dimensional structure X. The inclination of the blade portion 920 corresponds to the inclination of the virtual straight line Lv. Therefore, by making the imaginary straight line Lv substantially coincide with the longitudinal direction (extending direction) of the base 710, the inclination in the longitudinal direction of the base 710 corresponds to the inclination of the blade portion 920. Therefore, it is easy for the user to image the inclination of the blade portion 920, and the user can process the virtual three-dimensional structure X more naturally in the screen 310.

方向検出部740は、所定方向Z(本実施形態では鉛直方向)を検出することができれば、特に限定されず、例えば、加速度センサーやジャイロセンサー、3軸加速度センサー(互いに直交するX軸、Y軸およびZ軸のそれぞれの軸方向の加速度を検知することのできるセンサー)や、3軸角速度センサー(互いに直交するX軸、Y軸およびZ軸のそれぞれの軸まわりの角速度を検知することのできるセンサー)や、これら加速度センサーと角速度センサーを組み合わせた軸モーションセンサー等の傾きを検知する装置を用いることができる。   The direction detection unit 740 is not particularly limited as long as it can detect the predetermined direction Z (vertical direction in the present embodiment), for example, an acceleration sensor, a gyro sensor, a three-axis acceleration sensor (an X axis and a Y axis orthogonal to each other). And a sensor capable of detecting the acceleration in the axial direction of each of the Z axis) and a triaxial angular velocity sensor (a sensor capable of detecting the angular velocities around the X axis, the Y axis and the Z axis orthogonal to each other) ), Or an axis motion sensor or the like that combines these acceleration sensors and angular velocity sensors.

次に、画像表示システム100の使用方法について一例を挙げて説明する。なお、以下では、画像表示システム100を用いて自動車のデザインを行う方法について説明するが、画像表示システム100の使用方法については、特に限定されない。   Next, a method for using the image display system 100 will be described with an example. In the following, a method for designing an automobile using the image display system 100 will be described. However, a method for using the image display system 100 is not particularly limited.

図39に示すように、画面310には、加工対象である仮想立体構造物Xと、仮想面Fに対応し、仮想立体構造物Xを加工するための仮想加工用具900と、が表示される。仮想加工用具900は、例えば、ヘラのような工具である。仮想加工用具900は、板状の本体910と、本体910に設けられ、仮想立体構造物Xに接触させる刃部920(接触部)とを有している。本体910の板面(主面)911は、仮想面Fと平行であり、刃部920の位置および傾きは、仮想直線Lv(基体710の延在方向)の位置および傾きに対応している。そのため、使用者は、自身が把持している入力装置700を刃部920と対応付けることができ、より直感的な入力(操作)が可能となる。また、画面310に仮想加工用具900が表示されることで、より現実空間に近い状態(感覚)で、仮想立体構造物Xを加工することができる。   As shown in FIG. 39, a virtual three-dimensional structure X to be processed and a virtual processing tool 900 for processing the virtual three-dimensional structure X corresponding to the virtual plane F are displayed on the screen 310. . The virtual processing tool 900 is a tool such as a spatula, for example. The virtual processing tool 900 includes a plate-shaped main body 910 and a blade portion 920 (contact portion) that is provided on the main body 910 and makes contact with the virtual three-dimensional structure X. The plate surface (main surface) 911 of the main body 910 is parallel to the virtual surface F, and the position and inclination of the blade portion 920 correspond to the position and inclination of the virtual straight line Lv (extending direction of the base body 710). Therefore, the user can associate the input device 700 held by the user with the blade portion 920, and more intuitive input (operation) is possible. Further, by displaying the virtual processing tool 900 on the screen 310, the virtual three-dimensional structure X can be processed in a state (sense) closer to the real space.

仮想立体構造物Xは、工業用クレイに見立てたものであり、仮想空間での位置が固定されている。そのため、使用者が移動することで、仮想立体構造物Xを前方から見たり、後方から見たり、横側から見たりすることができる。   The virtual three-dimensional structure X is like an industrial clay, and the position in the virtual space is fixed. Therefore, when the user moves, the virtual three-dimensional structure X can be viewed from the front, from the rear, or from the side.

刃部920を仮想立体構造物Xに接触させることで、刃部920によって仮想立体構造物Xを加工することができる。具体的には、例えば、図40に示すように、入力装置700を操作して、仮想加工用具900の刃部920を仮想立体構造物Xの角に押し当てながらスライドさせると、その角を削り取ることができる。このように、入力装置700を用いて仮想加工用具900を操作し、仮想立体構造物Xを加工することで、自動車をデザインすることができる。   By bringing the blade part 920 into contact with the virtual three-dimensional structure X, the virtual three-dimensional structure X can be processed by the blade part 920. Specifically, for example, as shown in FIG. 40, when the input device 700 is operated and the blade portion 920 of the virtual processing tool 900 is slid against the corner of the virtual three-dimensional structure X, the corner is scraped off. be able to. In this way, by operating the virtual processing tool 900 using the input device 700 and processing the virtual three-dimensional structure X, a car can be designed.

ここで、図38に示すように、入力装置700には少なくとも1つのボタンを有する入力部790が設けられている。入力部790としては、特に限定されず、例えば、仮想立体構造物Xの加工をキャンセルすることのできるキャンセルボタンや、仮想加工用具900の種類を変更する変更ボタン等を含む構成とすることができる。このような入力部790を有することで、仮想立体構造物Xの加工をより容易に行うことができる。なお、入力部790のボタンの配置としては、特に限定されないが、使用者が基体710を把持した状態で操作し易い場所に配置することが好ましい。本実施形態では、それぞれの手の親指で操作し易い位置に設けられている。   Here, as shown in FIG. 38, the input device 700 is provided with an input unit 790 having at least one button. The input unit 790 is not particularly limited. For example, the input unit 790 may include a cancel button that can cancel the processing of the virtual three-dimensional structure X, a change button that changes the type of the virtual processing tool 900, and the like. . By having such an input unit 790, the virtual three-dimensional structure X can be processed more easily. Note that the arrangement of the buttons of the input unit 790 is not particularly limited, but it is preferable to arrange the buttons in a place where the user can easily operate while holding the base 710. In this embodiment, it is provided at a position where it can be easily operated with the thumb of each hand.

また、図38に示すように、入力装置700には報知部750が設けられている。報知部750は、基体710の一方の端部に配置された第1報知部751と、他方の端部に配置された第2報知部752と、を有している。そして、報知部750は、第1報知部751および第2報知部752によって、仮想立体構造物Xに対する刃部920の接触状態が報知されるようになっている。なお、前記「接触状態」には、例えば、仮想立体構造物Xに対する刃部920の接触強度や接触角度が挙げられる。報知部750により、使用者が仮想立体構造物Xに対する刃部920の接触状態を認識し易くなり、仮想立体構造物Xをより思い通りに加工することができる。   As shown in FIG. 38, the input device 700 is provided with a notification unit 750. The notification unit 750 includes a first notification unit 751 disposed at one end of the base 710 and a second notification unit 752 disposed at the other end. And the alerting | reporting part 750 alert | reports the contact state of the blade part 920 with respect to the virtual three-dimensional structure X by the 1st alerting | reporting part 751 and the 2nd alerting | reporting part 752. The “contact state” includes, for example, the contact strength and contact angle of the blade portion 920 with respect to the virtual three-dimensional structure X. The notification unit 750 makes it easier for the user to recognize the contact state of the blade portion 920 with respect to the virtual three-dimensional structure X, and the virtual three-dimensional structure X can be processed as desired.

また、第1報知部751および第2報知部752は、それぞれ、振動可能な振動部を有している。これら振動部としては、例えば、携帯電話(スマートフォンを含む)に内蔵されているような小型のバイブレーターを用いることができる。これにより、報知部750は、振動によって前記接触状態を使用者に報知することができる。そのため、より確実に、前記接触状態を使用者に報知することができる。ただし、報知部750の構成としては、接触状態を使用者に報知することができれば、特に限定されず、例えば、振動以外の手段(音、光等)で使用者に報知する構成となっていてもよい。   Moreover, the 1st alerting | reporting part 751 and the 2nd alerting | reporting part 752 each have a vibration part which can vibrate. As these vibration parts, for example, a small vibrator built in a mobile phone (including a smartphone) can be used. Thereby, the notification unit 750 can notify the user of the contact state by vibration. Therefore, it is possible to notify the user of the contact state more reliably. However, the configuration of the notification unit 750 is not particularly limited as long as the contact state can be notified to the user. For example, the notification unit 750 is configured to notify the user by means other than vibration (sound, light, etc.). Also good.

例えば、図41に示すように、刃部920を仮想立体構造物Xに押し当てた際、その接触強度が強い程、報知部750全体の振動が大きくなる。接触強度は、刃部920が仮想立体構造物Xと接触する状態に対応する入力装置700の位置と、現実の入力装置700の位置とのずれに基づいて求めることができる。すなわち、入力装置700が図41の実線で示す状態のときに、刃部920が仮想立体構造物Xに接触するとすれば、その位置と現実の入力装置700の位置(鎖線で示す状態)との接触方向(押し当て方向)におけるずれ量が大きい程、接触強度が大きいと判断することができる。   For example, as shown in FIG. 41, when the blade part 920 is pressed against the virtual three-dimensional structure X, the stronger the contact strength, the greater the vibration of the notification part 750. The contact strength can be obtained based on the deviation between the position of the input device 700 corresponding to the state in which the blade portion 920 is in contact with the virtual three-dimensional structure X and the actual position of the input device 700. That is, when the input device 700 is in the state indicated by the solid line in FIG. 41, if the blade portion 920 contacts the virtual three-dimensional structure X, the position and the actual position of the input device 700 (state indicated by the chain line) It can be determined that the greater the amount of displacement in the contact direction (pressing direction), the greater the contact strength.

また、図42に示すように、刃部920を仮想立体構造物Xに押し当てた際、第1報知部751側の端部の接触強度と第2報知部752側の端部の接触強度とが等しい場合には、第1報知部751の振動強度と第2報知部752の振動強度とが等しくなる。   42, when the blade 920 is pressed against the virtual three-dimensional structure X, the contact strength at the end on the first notification unit 751 side and the contact strength at the end on the second notification unit 752 side Are equal, the vibration intensity of the first notification unit 751 and the vibration intensity of the second notification unit 752 are equal.

また、第1報知部751側の端部の接触強度が、第2報知部752側の端部の接触強度よりも大きい場合には、第1報知部751の振動強度が第2報知部752の振動強度よりも大きくなり、これらの接触強度の差が大きい程、第1報知部751の振動強度と第2報知部752の振動強度との差が大きくなる。   When the contact strength at the end on the first notification unit 751 side is greater than the contact strength at the end on the second notification unit 752 side, the vibration strength of the first notification unit 751 is The difference between the vibration strength of the first notification unit 751 and the vibration strength of the second notification unit 752 increases as the difference between the contact strengths increases.

反対に、第1報知部751側の端部の接触強度が、第2報知部752側の端部の接触強度よりも小さい場合には、第1報知部751の振動強度が第2報知部752の振動強度よりも小さくなり、これらの接触強度の差が大きい程、第1報知部751の振動強度と第2報知部752の振動強度との差が大きくなる。   On the other hand, when the contact strength at the end on the first notification unit 751 side is smaller than the contact strength at the end on the second notification unit 752 side, the vibration strength of the first notification unit 751 is the second notification unit 752. The difference between the vibration strength of the first notification unit 751 and the vibration strength of the second notification unit 752 increases as the difference between the contact strengths increases.

また、例えば、図43に示すように、刃部920を仮想立体構造物Xの角に押し当てた際、刃部920が仮想立体構造物Xの角に均等に接している場合、すなわち、刃部920と面X1とのなす角θ1と、刃部920と面X2とのなす角θ2が等しい場合には、第1報知部751の振動強度と第2報知部752の振動強度とが等しくなる。   Also, for example, as shown in FIG. 43, when the blade portion 920 is pressed against the corner of the virtual three-dimensional structure X, the blade portion 920 is in contact with the corner of the virtual three-dimensional structure X, that is, the blade When the angle θ1 formed by the portion 920 and the surface X1 is equal to the angle θ2 formed by the blade portion 920 and the surface X2, the vibration strength of the first notification portion 751 and the vibration strength of the second notification portion 752 are equal. .

また、刃部920が面X1側に傾いている場合、すなわち、θ1<θ2の場合には、第1報知部751の振動強度が第2報知部752の振動強度よりも大きくなり、θ1とθ2との差が大きい程、第1報知部751の振動強度と第2報知部752の振動強度との差が大きくなる。   Further, when the blade portion 920 is inclined toward the surface X1, that is, when θ1 <θ2, the vibration strength of the first notification portion 751 is larger than the vibration strength of the second notification portion 752, and θ1 and θ2 Is larger, the difference between the vibration intensity of the first notification unit 751 and the vibration intensity of the second notification unit 752 is larger.

反対に、刃部920が面X2側に傾いている場合、すなわち、θ1>θ2の場合には、第1報知部751の振動強度が第2報知部752の振動強度よりも小さくなり、θ1とθ2との差が大きい程、第1報知部751の振動強度と第2報知部752の振動強度との差が大きくなる。   On the contrary, when the blade portion 920 is inclined toward the surface X2, that is, when θ1> θ2, the vibration strength of the first notification portion 751 is smaller than the vibration strength of the second notification portion 752, and θ1 The greater the difference from θ2, the greater the difference between the vibration intensity of the first notification unit 751 and the vibration intensity of the second notification unit 752.

このように、接触状態によって報知部750の全体の振動強度を変化させたり、第1報知部751と第2報知部752の振動強度に差を付けたりすることで、使用者が仮想立体構造物Xに対する刃部920の接触状態を認識し易くなり、仮想立体構造物Xをより思い通りに加工することができる。   As described above, the user can change the overall vibration intensity of the notification unit 750 according to the contact state or make a difference between the vibration intensities of the first notification unit 751 and the second notification unit 752 so that the user can make a virtual three-dimensional structure. It becomes easy to recognize the contact state of the blade part 920 with respect to X, and the virtual three-dimensional structure X can be further processed as desired.

このような第15実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。   Also according to the fifteenth embodiment, the same effects as those of the first embodiment described above can be exhibited.

<第16実施形態>
次に、本発明の第16実施形態に係る画像表示システムについて説明する。
<Sixteenth Embodiment>
Next, an image display system according to a sixteenth embodiment of the present invention will be described.

図44は、本発明の第16実施形態の入力装置を示す平面図である。図45は、図44に示す入力装置の側面図である。図46は、図44に示す入力装置が有する弾性入力部を示す横断面図である。図47および図48は、それぞれ、弾性入力部の機能を説明する図である。   FIG. 44 is a plan view showing an input device according to a sixteenth embodiment of the present invention. FIG. 45 is a side view of the input device shown in FIG. FIG. 46 is a cross-sectional view showing an elastic input unit included in the input device shown in FIG. 47 and 48 are diagrams illustrating the function of the elastic input unit, respectively.

本実施形態に係る画像表示システムは、入力装置の構成が異なること以外は、前述した第1実施形態の画像表示システムと同様である。   The image display system according to the present embodiment is the same as the image display system of the first embodiment described above except that the configuration of the input device is different.

なお、以下の説明では、第16実施形態の画像表示システムに関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図44ないし図48では前述した実施形態と同様の構成について、同一符号を付している。   In the following description, the image display system according to the sixteenth embodiment will be described with a focus on differences from the above-described embodiments, and description of similar matters will be omitted. 44 to 48, the same reference numerals are given to the same configurations as those of the above-described embodiment.

図44および図45に示すように、本実施形態の入力装置700は、前述した第15実施形態の構成に加えて、仮想加工用具900の刃部920を変形させる弾性入力部600を有している。また、弾性入力部600は、基体710の下端部に設けられており、基体710の長手方向(仮想直線Lv)に沿って延在して配置されている。なお、現実世界において、弾性入力部600は、刃部920に見立てられる。このような構成によれば、使用者は、入力装置700と仮想加工用具900とをより直感的に対応付けることができ、繊細で直感的な入力を行うことのできる入力装置700となる。   As shown in FIGS. 44 and 45, the input device 700 of the present embodiment includes an elastic input unit 600 that deforms the blade 920 of the virtual processing tool 900 in addition to the configuration of the fifteenth embodiment described above. Yes. The elastic input unit 600 is provided at the lower end of the base body 710 and is disposed so as to extend along the longitudinal direction (virtual straight line Lv) of the base body 710. In the real world, the elastic input unit 600 is likened to the blade 920. According to such a configuration, the user can more intuitively associate the input device 700 with the virtual processing tool 900, and the input device 700 can perform a delicate and intuitive input.

図46に示すように、弾性入力部600は、中空状の筐体610と、筐体610の外側に配置され、筐体610の外周面に配置された弾性層620と、弾性層620に配置されたマーカーMと、筐体610の内側に配置され、弾性層620の変形を検出する検出部630と、弾性層620を照らす光源640と、検出部630の検出結果から入力信号を生成する信号生成部650と、を有している。なお、弾性入力部600は、主に弾性層620の形状が異なること以外は、前述した第2実施形態と同様の構成であるため、その説明を省略する。   As shown in FIG. 46, the elastic input unit 600 includes a hollow housing 610, an elastic layer 620 disposed on the outer surface of the housing 610, and an elastic layer 620. The marker M, the detection unit 630 that is disposed inside the housing 610 and detects deformation of the elastic layer 620, the light source 640 that illuminates the elastic layer 620, and a signal that generates an input signal from the detection result of the detection unit 630 A generating unit 650. The elastic input unit 600 has the same configuration as that of the second embodiment described above except that the shape of the elastic layer 620 is mainly different.

次に、弾性入力部600の使用方法について説明する。例えば、図47に示すように、弾性入力部600の一部を押し込むと、押し込まれた箇所および変位量に対応して、仮想加工用具900の刃部920がくぼみ変形する。また、例えば、図48に示すように、弾性入力部600の一部を摘まむ(引っ張る)と、摘ままれた箇所および変位量に対応して、仮想加工用具900の刃部920が突出変形する。このように、弾性入力部600による入力によって、刃部920の形状を自在に変形することができる。そして、変形させた状態の刃部920で仮想立体構造物Xを加工することで、より多彩な加工を行うことができる。   Next, a method for using the elastic input unit 600 will be described. For example, as shown in FIG. 47, when a part of the elastic input unit 600 is pushed in, the blade part 920 of the virtual processing tool 900 is indented and deformed corresponding to the pushed-in place and the amount of displacement. For example, as shown in FIG. 48, when a part of the elastic input unit 600 is picked (pulled), the blade part 920 of the virtual processing tool 900 protrudes and deforms in accordance with the pinched part and the amount of displacement. . As described above, the shape of the blade 920 can be freely deformed by the input from the elastic input unit 600. Then, by processing the virtual three-dimensional structure X with the blade portion 920 in a deformed state, more various processing can be performed.

このような第16実施形態によっても、前述した第1実施形態と同様の効果を発揮することができる。   Also according to the sixteenth embodiment, the same effects as those of the first embodiment described above can be exhibited.

以上、本発明の入力装置および画像表示システムについて、図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に、他の任意の構成物が付加されていてもよい。また、各実施形態を適宜組み合わせてもよい。   As mentioned above, although the input device and the image display system of the present invention have been described based on the illustrated embodiment, the present invention is not limited to this, and the configuration of each unit is an arbitrary configuration having the same function. Can be substituted. In addition, any other component may be added to the present invention. Moreover, you may combine each embodiment suitably.

100 画像表示システム
200 入力装置
210 第1部材
211 第1対向面
212 把持部
220 第2部材
221 第2対向面
222 把持部
231 第1位置基準部
232 第2位置基準部
233 第3位置基準部
234 第4位置基準部
250 報知部
251 第1報知部
252 第2報知部
281 突起
282 凹部
290 入力部
300 画像表示装置
310 画面
400 端末
500 生成部
600 弾性入力部
610 筐体
620 弾性層
620A 光透過層
620B 光反射層
620B’ 内面
620C 画像表示層
620C’ 内面
620a 外周面
620b 内周面
621 第1マーカー
622 第2マーカー
623 第3マーカー
624 第1弾性層
625 第2弾性層
626 第3弾性層
627 保護層
628 基準マーカー
630 検出部
631 カメラ
632 処理部
632a CPU
632b メモリー
632c 記憶部
640 光源
641 発光部
650 信号生成部
700 入力装置
710 基体
720 第1位置基準部
730 第2位置基準部
740 方向検出部
750 報知部
751 第1報知部
752 第2報知部
790 入力部
810 検出部
810A 第1検出部
810B 第2検出部
810C 第3検出部
811 光源
812 半導体位置検出素子
813 光学システム
814 レンズ系
815 レンズ系
820 検出部
821 光源
822 レンズ系
823 ビームスプリッタ
824 ディテクタ
825 モータ
826 光学システム
830 検出部
831 光源
832 レンズ系
833 レンズ系
834 偏光ビームスプリッタ
835 λ/4板
836 波面分割ミラー
837 第1ディテクタ
838 第2ディテクタ
839 光学システム
840 検出部
841 光源
842 スリット光形成部
844 撮像素子
845 レンズ系
846 光学システム
850 検出部
851 光源
852 撮像素子
853 格子
854 光学システム
860 検出部
861 画像投影部
862 撮像素子
863 光学システム
870 検出部
871 画像投影部
872 撮像素子
873 光学システム
890 画像投影部
900 仮想加工用具
910 本体
911 板面
920 刃部
921 端
2511 振動部
2521 振動部
A 移動量
F 仮想面
L 光
L1 光
L2 光
L3 光
LS 光スポット
Lv 仮想直線
M マーカー
S 内部空間
X 仮想立体構造物
X1 面
X2 面
Z1 相対的変位量
θ1 角
θ2 角
DESCRIPTION OF SYMBOLS 100 Image display system 200 Input device 210 1st member 211 1st opposing surface 212 Gripping part 220 2nd member 221 2nd opposing surface 222 Gripping part 231 1st position reference part 232 2nd position reference part 233 3rd position reference part 234 Fourth position reference unit 250 Notification unit 251 First notification unit 252 Second notification unit 281 Protrusion 282 Concave 290 Input unit 300 Image display device 310 Screen 400 Terminal 500 Generation unit 600 Elastic input unit 610 Housing 620 Elastic layer 620A Light transmission layer 620B Light reflecting layer 620B ′ Inner surface 620C Image display layer 620C ′ Inner surface 620a Outer surface 620b Inner surface 621 First marker 622 Second marker 623 Third marker 624 First elastic layer 625 Second elastic layer 626 Third elastic layer 627 Protection Layer 628 Reference marker 630 Detection unit 631 Camera 632 Processing unit 6 2a CPU
632b Memory 632c Storage unit 640 Light source 641 Light emission unit 650 Signal generation unit 700 Input device 710 Base 720 First position reference unit 730 Second position reference unit 740 Direction detection unit 750 Notification unit 751 First notification unit 752 Second notification unit 790 Input Unit 810 detection unit 810A first detection unit 810B second detection unit 810C third detection unit 811 light source 812 semiconductor position detection element 813 optical system 814 lens system 815 lens system 820 detection unit 821 light source 822 lens system 823 beam splitter 824 detector 825 motor 826 Optical system 830 Detection unit 831 Light source 832 Lens system 833 Lens system 834 Polarization beam splitter 835 λ / 4 plate 836 Wavefront division mirror 837 First detector 838 Second detector 839 Optical system 840 Detection unit 841 Light source 842 Slit light forming unit 844 Imaging element 845 Lens system 846 Optical system 850 Detection unit 851 Light source 852 Imaging element 853 Grating 854 Optical system 860 Detection unit 861 Image projection unit 862 Imaging element 863 Optical system 870 Detection unit 871 Image projection unit 872 Imaging Element 873 Optical system 890 Image projection unit 900 Virtual processing tool 910 Main body 911 Plate surface 920 Blade unit 921 End 2511 Vibration unit 2521 Vibration unit A Movement amount F Virtual surface L Light L1 Light L2 Light L3 Light LS Light spot Lv Virtual straight line M Marker S internal space X virtual three-dimensional structure X1 surface X2 surface Z1 relative displacement θ1 angle θ2 angle

Claims (19)

互いに離間して設定された第1位置基準部および第2位置基準部を有する第1部材と、
互いに離間して設定された第3位置基準部および第4位置基準部を有する第2部材と、を有し、
前記第1位置基準部、前記第2位置基準部、前記第3位置基準部および前記第4位置基準部で定まる仮想面の情報が生成されることを特徴とする入力装置。
A first member having a first position reference part and a second position reference part set apart from each other;
A second member having a third position reference part and a fourth position reference part set apart from each other,
An input device, wherein information on a virtual plane determined by the first position reference unit, the second position reference unit, the third position reference unit, and the fourth position reference unit is generated.
前記情報には、前記仮想面の形状、前記仮想面の傾きおよび前記仮想面の位置の少なくとも1つが含まれる請求項1に記載の入力装置。   The input device according to claim 1, wherein the information includes at least one of a shape of the virtual surface, an inclination of the virtual surface, and a position of the virtual surface. 外力が入力される第1面および前記第1面の反対側の第2面が規定される弾性層と、
前記弾性層に配置され、前記弾性層の変形に伴って変位するマーカーと、
前記弾性層の前記第2面側に位置づけられ、前記マーカーの変位に基づいて前記弾性層の変形を検出する検出部と、を備える請求項1または2に記載の入力装置。
An elastic layer in which a first surface to which an external force is input and a second surface opposite to the first surface are defined;
A marker that is disposed in the elastic layer and is displaced along with the deformation of the elastic layer;
The input device according to claim 1, further comprising: a detection unit that is positioned on the second surface side of the elastic layer and detects deformation of the elastic layer based on displacement of the marker.
前記マーカーは、前記弾性層の厚さ方向にずれて配置された第1マーカーおよび第2マーカーを有する請求項3に記載の入力装置。   The input device according to claim 3, wherein the marker includes a first marker and a second marker that are arranged to be shifted in a thickness direction of the elastic layer. 前記第1部材および前記第2部材は、分離されている請求項1ないし4のいずれか1項に記載の入力装置。   The input device according to claim 1, wherein the first member and the second member are separated. 前記第1部材および前記第2部材は、回動可能に連結されている請求項1ないし4のいずれか1項に記載の入力装置。   The input device according to any one of claims 1 to 4, wherein the first member and the second member are rotatably connected. 前記第1部材および前記第2部材は、接近および離間が可能である請求項6に記載の入力装置。   The input device according to claim 6, wherein the first member and the second member are capable of approaching and separating. 前記第1部材および前記第2部材は、合体および分離が可能である請求項6または7に記載の入力装置。   The input device according to claim 6 or 7, wherein the first member and the second member can be combined and separated. 前記第1部材および前記第2部材の一方は、使用者の右手に把持され、他方は、使用者の左手に把持される請求項1ないし8のいずれか1項に記載の入力装置。   The input device according to claim 1, wherein one of the first member and the second member is gripped by a user's right hand, and the other is gripped by the user's left hand. 基体と、
前記基体に設けられ、互いに離間した第1位置基準部および第2位置基準部と、
前記基体に設けられ、所定方向を検出する方向検出部と、を有し、
前記第1位置基準部および前記第2位置基準部で定まる仮想直線と、前記所定方向と、で定まる仮想面の情報が生成されることを特徴とする入力装置。
A substrate;
A first position reference portion and a second position reference portion provided on the base body and spaced apart from each other;
A direction detection unit that is provided on the base body and detects a predetermined direction;
Information on a virtual plane determined by a virtual straight line determined by the first position reference unit and the second position reference unit and the predetermined direction is generated.
前記所定方向は、鉛直方向である請求項10に記載の入力装置。   The input device according to claim 10, wherein the predetermined direction is a vertical direction. 前記仮想加工用具は、仮想物体に接触させる接触部を有し、
前記接触部は、前記仮想直線によって定められる請求項10または11に記載の入力装置。
The virtual processing tool has a contact portion for contacting a virtual object,
The input device according to claim 10, wherein the contact portion is defined by the virtual straight line.
前記接触部を変形させる弾性入力部を有する請求項12に記載の入力装置。   The input device according to claim 12, further comprising an elastic input portion that deforms the contact portion. 前記弾性入力部は、外力が入力される第1面および前記第1面の反対側の第2面が規定される弾性層と、
前記弾性層に配置され、前記弾性層の変形に伴って変位するマーカーと、
前記弾性層の前記第2面側に位置づけられ、前記マーカーの変位に基づいて前記弾性層の変形を検出する検出部と、を備える請求項13に記載の入力装置。
The elastic input part includes an elastic layer in which a first surface to which an external force is input and a second surface opposite to the first surface are defined,
A marker that is disposed in the elastic layer and is displaced along with the deformation of the elastic layer;
The input device according to claim 13, further comprising: a detection unit that is positioned on the second surface side of the elastic layer and detects a deformation of the elastic layer based on a displacement of the marker.
仮想現実または拡張現実により生成される仮想物体の表面に前記仮想面を押し当てることで、前記仮想物体を加工することができる請求項1ないし14のいずれか1項に記載の入力装置。   The input device according to claim 1, wherein the virtual object can be processed by pressing the virtual surface against a surface of the virtual object generated by virtual reality or augmented reality. 仮想現実または拡張現実に、前記仮想面に対応した仮想加工用具が表示される請求項15に記載の入力装置。   The input device according to claim 15, wherein a virtual processing tool corresponding to the virtual plane is displayed in virtual reality or augmented reality. 前記仮想加工用具の前記仮想物体への接触を報知する報知部を有している請求項16に記載の入力装置。   The input device according to claim 16, further comprising a notification unit that notifies contact of the virtual processing tool with the virtual object. 前記報知部は、振動部を有している請求項17に記載の入力装置。   The input device according to claim 17, wherein the notification unit includes a vibration unit. 請求項1ないし18のいずれか1項に記載の入力装置と、
画像を表示する画像表示装置と、を有することを特徴とする画像表示システム。
The input device according to any one of claims 1 to 18,
An image display system comprising: an image display device that displays an image.
JP2017188009A 2016-11-24 2017-09-28 Input device and image display system Active JP6977991B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021116813A JP7209310B2 (en) 2016-11-24 2021-07-15 Input device and image display system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016227941 2016-11-24
JP2016227941 2016-11-24

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021116813A Division JP7209310B2 (en) 2016-11-24 2021-07-15 Input device and image display system

Publications (2)

Publication Number Publication Date
JP2018088240A true JP2018088240A (en) 2018-06-07
JP6977991B2 JP6977991B2 (en) 2021-12-08

Family

ID=62494608

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017188009A Active JP6977991B2 (en) 2016-11-24 2017-09-28 Input device and image display system
JP2021116813A Active JP7209310B2 (en) 2016-11-24 2021-07-15 Input device and image display system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021116813A Active JP7209310B2 (en) 2016-11-24 2021-07-15 Input device and image display system

Country Status (1)

Country Link
JP (2) JP6977991B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002018893A1 (en) * 2000-08-31 2002-03-07 Center For Advanced Science And Technology Incubation, Ltd. Optical tactile sensor
JP2005349153A (en) * 2004-06-08 2005-12-22 Wan Shaorin Apparatus and method for enhancing reality of action video game on computer or similar device
JP2009087161A (en) * 2007-10-01 2009-04-23 Canon Inc Image processor and image processing method
JP2011524048A (en) * 2008-05-30 2011-08-25 ソニー・コンピュータ・エンタテインメント・アメリカ・エルエルシー Determination of controller's three-dimensional position using image analysis and ultrasonic communication
JP2012239778A (en) * 2011-05-24 2012-12-10 Nintendo Co Ltd Game program, game device, game system, and game processing method
JP2016524262A (en) * 2013-07-10 2016-08-12 リアル ビュー イメージング リミテッド 3D user interface

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002018893A1 (en) * 2000-08-31 2002-03-07 Center For Advanced Science And Technology Incubation, Ltd. Optical tactile sensor
JP2005349153A (en) * 2004-06-08 2005-12-22 Wan Shaorin Apparatus and method for enhancing reality of action video game on computer or similar device
JP2009087161A (en) * 2007-10-01 2009-04-23 Canon Inc Image processor and image processing method
JP2011524048A (en) * 2008-05-30 2011-08-25 ソニー・コンピュータ・エンタテインメント・アメリカ・エルエルシー Determination of controller's three-dimensional position using image analysis and ultrasonic communication
JP2012239778A (en) * 2011-05-24 2012-12-10 Nintendo Co Ltd Game program, game device, game system, and game processing method
JP2016524262A (en) * 2013-07-10 2016-08-12 リアル ビュー イメージング リミテッド 3D user interface

Also Published As

Publication number Publication date
JP2021180019A (en) 2021-11-18
JP6977991B2 (en) 2021-12-08
JP7209310B2 (en) 2023-01-20

Similar Documents

Publication Publication Date Title
JP6931509B2 (en) Input device and image display system
US11747901B1 (en) Fiducial rings in virtual reality
CN103970265B (en) Augmented reality user interface with touch feedback
EP3469457B1 (en) Modular extension of inertial controller for six dof mixed reality input
TWI468995B (en) Display device, image display system, and image display method
US8648802B2 (en) Collapsible input device
US20100026723A1 (en) Image magnification system for computer interface
TW201508561A (en) Speckle sensing for motion tracking
JP2015114818A (en) Information processing device, information processing method, and program
US11144113B2 (en) System and method for human interaction with virtual objects using reference device with fiducial pattern
JP2022503532A (en) Control unit magnetic user input assembly
EP1698964B1 (en) Information input unit, storing unit, information input device, and information processing device
US20220155881A1 (en) Sensing movement of a hand-held controller
US20230244312A1 (en) Detection device and detection method
US20110063212A1 (en) Apparatus for Input of Control Signals for Moving an Object
JP7209310B2 (en) Input device and image display system
US11829572B2 (en) Three dimensional input for a cylindrical display device
JP2020027537A (en) Input device and mobile entity
US11697068B2 (en) Mobile platform as a physical interface for interaction
WO2022208612A1 (en) Wearable terminal device, program and display method
JP2023008663A (en) Control device
JP2013164736A (en) Input device for portable information device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210714

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211102

R150 Certificate of patent or registration of utility model

Ref document number: 6977991

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150