JP2014056462A - Operation device - Google Patents
Operation device Download PDFInfo
- Publication number
- JP2014056462A JP2014056462A JP2012201394A JP2012201394A JP2014056462A JP 2014056462 A JP2014056462 A JP 2014056462A JP 2012201394 A JP2012201394 A JP 2012201394A JP 2012201394 A JP2012201394 A JP 2012201394A JP 2014056462 A JP2014056462 A JP 2014056462A
- Authority
- JP
- Japan
- Prior art keywords
- operation surface
- virtual operation
- user
- virtual
- elbow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明の実施形態は、操作時の手振れを軽減させる操作装置に関する。 Embodiments described herein relate generally to an operation device that reduces camera shake during operation.
機器を操作する際には、機器に対する命令や情報の入力が欠かせない。しかし、車などの乗物内で操作機器へ手を伸ばして操作する場合、車の振動や手振れにより正しい位置に手を持っていきづらい。 When operating a device, it is indispensable to input commands and information to the device. However, when reaching and operating the control device in a vehicle such as a car, it is difficult to hold the hand in the correct position due to vibrations or camera shake.
そこで、3次元表示機器の手前に仮想操作面を表示させることにより、手の操作位置と表示位置を一致させて直感的に操作ができるようにしたり、仮想操作面を形成する場合には、操作者の位置、モニタやステレオカメラの配置態様に応じて適宜調整することが行われている。 Therefore, the virtual operation surface is displayed in front of the 3D display device so that the operation position of the hand matches the display position so that the operation can be performed intuitively, or when the virtual operation surface is formed, Adjustments are made as appropriate according to the position of the person and the arrangement of the monitor and stereo camera.
また、利用者の操作を限定することなく、表示上の操作位置に対する利用者の操作位置を認識させることができるように、利用者の近くに操作基準面及び仮想操作面を設定するものも提案されている。 In addition, it is also proposed to set an operation reference plane and a virtual operation plane near the user so that the user's operation position relative to the displayed operation position can be recognized without limiting the user's operation. Has been.
しかし、表示装置と平行に仮想操作面が表示され、地面に対して垂直に仮想操作面を設ける場合には、見にくいだけでなく、手を前に出さなくてはならず、肘を上げることになり手が振動の影響を受けやすくなる。また、操作面の向きがユーザに対して垂直なので操作しづらいという問題がある。 However, when the virtual operation surface is displayed parallel to the display device and the virtual operation surface is provided perpendicular to the ground, not only is it difficult to see, but the hand must be put forward and the elbow is raised. The limb is susceptible to vibration. There is also a problem that it is difficult to operate because the direction of the operation surface is perpendicular to the user.
本発明が解決しようとする課題は、操作性が良好で、操作時の手振れを軽減させ、疲労しにくい操作装置を提供することである。 The problem to be solved by the present invention is to provide an operating device that has good operability, reduces camera shake during operation, and is less fatigued.
実施形態の操作装置は、ユーザに対向して配置され、ユーザが操作機器に対して命令や情報を入力するための仮想操作面を立体的に表示する3次元表示機器と、ユーザに対向して配置され、ユーザの距離画像を取得する取得部と、前記取得部で取得した距離画像データに基づいて、前記仮想操作面を操作するユーザの操作位置を判定する操作位置判定部と、前記取得部で取得した距離画像データに基づいて、前記仮想操作面を配置する際に基準となる基準位置を取得する基準位置取得部と、前記基準位置取得部で取得した基準位置の位置データに基づいて、前記仮想操作面の配置位置を計算する計算部と、前記取得部で取得した距離画像データに基づいて、ユーザの視聴位置を判定する視聴位置判定部と、前記視聴位置の位置データ、前記3次元表示機器の位置データおよび前記仮想操作面の位置データに基づいて、立体表示する前記仮想操作面の表示データを作成し、前記3次元表示機器に送出する作成部と、前記操作位置データおよび前記仮想操作面の位置データに基づいて、前記操作機器に対する操作内容を判定して前記操作機器に指示する指示部とを備える。 The operation device according to the embodiment is arranged to face the user, a three-dimensional display device that stereoscopically displays a virtual operation surface for the user to input commands and information to the operation device, and the user An acquisition unit that is arranged and acquires a distance image of the user, an operation position determination unit that determines an operation position of a user who operates the virtual operation surface based on the distance image data acquired by the acquisition unit, and the acquisition unit On the basis of the distance image data acquired in step (b), based on the reference position acquisition unit that acquires a reference position serving as a reference when placing the virtual operation surface, and the position data of the reference position acquired by the reference position acquisition unit, A calculation unit that calculates an arrangement position of the virtual operation surface; a viewing position determination unit that determines a viewing position of a user based on the distance image data acquired by the acquisition unit; position data of the viewing position; Based on the position data of the original display device and the position data of the virtual operation surface, the display unit generates the display data of the virtual operation surface to be stereoscopically displayed and sends it to the three-dimensional display device, the operation position data, and the And an instruction unit that determines operation contents for the operation device based on position data of the virtual operation surface and instructs the operation device.
以下、本発明の一実施の形態について、図面を参照して説明する。尚、各図において同一箇所については同一の符号を付すとともに、重複した説明は省略する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the drawings, the same portions are denoted by the same reference numerals, and redundant description is omitted.
本実施形態に係る操作装置では、例えば肘あるいは肘の位置を基準位置とし、肘あるいは肘の位置をあまり動かさずにタッチ操作できるように、仮想操作面の位置や向きや形状を考慮して立体表示する。 In the operation device according to the present embodiment, for example, the position of the elbow or the elbow is set as the reference position, and the three-dimensional operation is performed in consideration of the position, orientation, and shape of the virtual operation surface so that the touch operation can be performed without moving the elbow or the elbow. indicate.
本実施形態に係る操作装置は、演算処理装置(CPU)、主メモリ(RAM)、読出し専用メモリ(ROM)、入力装置(例えば、操作パネルなど)、ハードディスク装置や半導体メモリであるフラッシュメモリを使用したソリッドステートドライブ(SSD)装置等の記憶装置を具備したパーソナル・コンピュータ等の汎用計算機を用いることができ、仮想操作面の立体表示及び操作支援用の処理プログラムをインストールすることにより実現できる。 The operation device according to the present embodiment uses an arithmetic processing unit (CPU), a main memory (RAM), a read-only memory (ROM), an input device (for example, an operation panel), a hard disk device, or a flash memory that is a semiconductor memory. A general-purpose computer such as a personal computer equipped with a storage device such as a solid state drive (SSD) device can be used, and can be realized by installing a processing program for stereoscopic display of the virtual operation surface and operation support.
図1は、本発明の実施形態に係る操作装置100の概略構成を示すブロック図である。実施形態に係る操作装置100は、主として3次元表示機器11、取得部12、操作位置判定部13、基準位置取得部14、計算部15、視聴位置判定部16、作成部17、指示部18から構成されている。図2は、取得部と取得する距離画像の位置の座標系を示す図である。図3は、3次元表示機器11や取得部12の配置の一例を示す図である。
FIG. 1 is a block diagram showing a schematic configuration of an
操作装置100は、操作機器200に対して、指示部18から指示を発して操作機器200を操作する。操作機器200は、例えば車載ステレオ装置である。指示部18により音量をアップするように指示が来た場合、音量をアップする。
The
3次元表示機器11は、ユーザに対向して配置され、ユーザが操作機器に対して命令や情報を入力するための仮想操作面を立体的に表示するものである。3次元表示機器11は、図3に示すように、例えば車両の運転席の前方に配置することができる。3次元表示機器11は、車両の助手席の裏側に配置することもできる。このような場合には、車両の後部座席の着席者が操作装置100を操作する。
The three-
ユーザは、例えば3次元表示機器11との間の一定の位置に立体表示された仮想操作面に対し、指などの形状が操作判定の対象となることを意識して操作を行うことができる。3次元表示機器11は、ユーザの両眼に対して別々の画像を提示することにより、ユーザが立体視できるものである。一般的には、左右眼に視差のある映像を提示すると同時に、ユーザの頭部運動に合わせて映像の見え方を変化させる必要がある。
For example, the user can perform an operation on the virtual operation surface stereoscopically displayed at a certain position with the
3次元表示機器11には、例えば、ヘッドアップディスプレイ、プロジェクタ、裸眼立体視ディスプレイ、偏光眼鏡でのディスプレイ、フォログラム等で構成することができる。カーナビゲーション装置の画面やインパネを利用することもできる。3次元表示機器11が、ヘッドマウントディスプレイなどピントが変えられる機器では、操作表示位置と指とで目のピントが同じ位置になるように、表示のピントの位置を合わせて表示させるのが好適である。
The three-
取得部12は、操作装置100に対面するユーザを含む物体との距離情報を画像形式で取得するものである。取得した距離画像データは、操作位置判定部13、基準位置取得部14、視聴位置判定部16に送られる。取得部12は、例えばステレオカメラあるいは深度センサで構成することができる。ステレオカメラは、対象物を複数の異なる方向から同時に撮影することにより、その奥行き方向の情報も記録できるようにしたカメラである。ステレオ画像から距離を求める場合には、三角測量の原理を用いるのが通常である。また、深度センサでは、ある一定の範囲に赤外線を照射して細かい点が分布した状態とし、そこに存在する物体によって点の模様が変化するので、それを捉えて奥行き情報を得る。
The
操作位置判定部13は、取得部12で取得した距離画像データに基づいて、物体までの奥行きを取得し、仮想操作面を操作する手の3次元位置を特定するものである。手の位置の特定は、体から出ている棒状の物体の先端を手と認識すればよい。その形状をそのままの形で認識する。
The operation
基準位置取得部14は、取得部12で取得した距離画像データに基づいて、仮想操作面を配置する際の基準となる位置を特定するものである。本実施形態では、“基準位置”として“関節の位置”や“肘が接している場所”すなわち“肘の位置”についての3次元情報によって特定する。ステレオカメラで取得した距離画像に限られず、深度センサや圧力センサなどで取得したデータを利用して、“基準位置”を特定してもよい。“肘の位置”の特定には、例えば圧力センサをユーザの着席近傍に設けた肘当てに設置し、最も圧力が高い箇所を“肘の位置”とすることが出来る。また、手首から肘までの長さを決めておき、手首の位置から指のある方の反対側に伸びている方向をその長さで延ばした位置が、“肘の位置”となる。手首から肘までの長さの特定は、ステレオカメラから見て肘の折曲がりを確認できる位置に腕を配置し、肘を伸ばしたり折り曲げたりして肩から肘までの直線と肘から手首までの直線の2つを認識し、その交点と手首までの距離で決めればよい。特定した“基準位置”や“腕の位置”の3次元情報は、計算部15に送られる。
Based on the distance image data acquired by the
計算部15は、得られた“腕の位置”や“基準位置”の3次元情報に基づいて、“仮想操作面”の配置位置を計算するものである。“仮想操作面”は平面としてもよいが、平面に限る必要はない。以下、平面とした“仮想操作面”、平面でない“仮想操作面”について詳述する。
The
<仮想操作面を平面とした場合>
図4は、手の稼動範囲と仮想操作面の配置との関係を説明する図である。図4を使用して仮想操作面を平面とした場合を説明する。“手首”を固定した場合、手を動かせる範囲は、肘から手首までの直線上に手がある状態(以下、状態Aという)から、手首を支点にして前方向は90度傾けた状態(以下、状態Bという)までである。また、支点に対して後ろ方向は90度傾けた状態(以下、状態Cという)までである。また、支点に対して横方向も同様に90度傾けた状態までである。尚、手首が柔軟で手を動かせる範囲が広いユーザの場合には、手の稼動範囲を広げてもよい。
<When the virtual operation surface is a plane>
FIG. 4 is a diagram illustrating the relationship between the operating range of the hand and the placement of the virtual operation surface. A case where the virtual operation surface is a plane will be described with reference to FIG. When “wrist” is fixed, the range of movement of the hand is from the state where the hand is on the straight line from the elbow to the wrist (hereinafter referred to as state A), with the wrist tilted 90 degrees forward (hereinafter referred to as state A). Until state B). Further, the rearward direction is up to a state tilted by 90 degrees (hereinafter referred to as state C). Similarly, the horizontal direction is also tilted by 90 degrees. In addition, in the case of a user whose wrist is flexible and the range in which the hand can be moved is wide, the operating range of the hand may be expanded.
次に、“肘の位置”を固定した状態で、状態Aでの指先位置が到達する(届く)範囲は肘から等距離となる球(図4では、外側の円)となり、状態Bや状態Cでの指先位置が到達する(届く)範囲は肘から等距離となる球(図4では、内側の円)となる。つまり、外側の球と内側の球の間に、仮想操作面を配置すればよいことになる。 Next, in a state where the “elbow position” is fixed, the range in which the fingertip position reaches (reachs) in the state A is a sphere that is equidistant from the elbow (the outer circle in FIG. 4). The range in which the fingertip position at C reaches (is reached) is a sphere that is equidistant from the elbow (inner circle in FIG. 4). That is, a virtual operation surface may be disposed between the outer sphere and the inner sphere.
図5乃至図9は、手首固定で、仮想操作面を操作できる範囲を示す図である。ユーザがタッチできる仮想操作面の向きは、仮想操作面の下部が同一の場所とした場合、図5のA面から図6のB面を経て図7のC面まで前方に傾けた状態まで操作することができる。逆に後方に傾けた場合、図5のA面から図8のD面を経て図9のE面まで傾けた状態まで操作することができる。C面の場合は手を曲げることにより操作することができる。後方に傾けた場合は、手を前方に傾ける方法に加え後方に傾けた側でもタッチすることができる。つまり、肘から手首までの距離より離れた位置で、仮想操作面の向きが肘に対して反対側の方向(C面)からユーザ方向(A面)を通って肘の方向(E面)までの範囲である。 5 to 9 are diagrams showing a range in which the virtual operation surface can be operated with the wrist fixed. The direction of the virtual operation surface that can be touched by the user is operated from the A plane in FIG. 5 to the C plane in FIG. 7 through the B plane in FIG. 6 through the B plane in FIG. can do. On the contrary, when tilted backward, it is possible to operate from the A plane in FIG. 5 to the E plane in FIG. 9 through the D plane in FIG. 8. In the case of the C plane, it can be operated by bending the hand. When tilted backward, in addition to the method of tilting the hand forward, it is possible to touch the side tilted backward. That is, at a position away from the distance from the elbow to the wrist, the direction of the virtual operation surface is the direction opposite to the elbow (C surface) from the user direction (A surface) to the elbow direction (E surface). Range.
仮想操作面の下部が同一の場所として説明したが、必ずしも同一の場所とする必要は無い。2つの球面の間であれば、どの位置にどの向きに配置してもよい。 Although the lower part of the virtual operation surface has been described as the same place, it is not always necessary to have the same place. As long as it is between two spherical surfaces, it may be arranged at any position and in any orientation.
また、肘から真上方向に仮想操作面の下部となるように説明したが、手をあまり上げなくて済むように、また、仮想操作面が見やすい向きに設置されるように説明位置より前方で下方として、仮想操作面の法線方向をユーザの向きとするほうが望ましい。 In addition, the explanation has been made so that the virtual operation surface is positioned directly below the elbow, but the virtual operation surface is placed in front of the explanation position so that the hand does not need to be raised so that the virtual operation surface can be easily viewed. It is desirable that the normal direction of the virtual operation surface is the user's direction as the downward direction.
また、実際には肘の位置は完全に固定される必要はなく、仮想操作面の向きや位置や大きさはもっと広い範囲で設定することもできる。 In practice, the position of the elbow does not need to be completely fixed, and the orientation, position, and size of the virtual operation surface can be set in a wider range.
また、ヘッドマウントディスプレイのように3次元表示機器11が操作する手より手前にある場合には、手のひらを上側にして、仮想操作面が裏側になり、範囲は同様となる。手で触った領域を手前にずらして表示してもよいし、表示しないようにしてもよい。ステレオカメラを装着した場合、左右の目の直前にヘッドマウントディスプレイをそれぞれ配置しても、実際の眼の位置とは少しずれるので、深度センサなどにより距離情報を取得して、映像を目で見える位置に補正するのが好適である。ヘッドマウントディスプレイでは目の位置は固定されるが、その中に目の位置を取得できるステレオカメラを装着し、装着ずれを補正させてより正確に表示するのが好適である。
When the
<仮想操作面を平面としない場合>
次に、仮想操作面を平面としない場合について説明する。図10は、球面的な仮想操作面の配置例を示す図である。図11は、面の向きがユーザの方向となる仮想操作面の配置例を示す図である。
<When the virtual operation surface is not a plane>
Next, a case where the virtual operation surface is not a plane will be described. FIG. 10 is a diagram illustrating an arrangement example of a spherical virtual operation surface. FIG. 11 is a diagram illustrating an arrangement example of the virtual operation surface in which the direction of the surface is the direction of the user.
肘を固定して手の稼動範囲内に平面を設置すると、2つの球面の間に配置する必要があるので配置可能範囲が狭くなる。そこで、仮想操作面を平面とはせず、手の稼動範囲内の球面上に配置してもよい。そうすることにより、肘を動かさなくても広範囲に仮想操作面を設置できる。例えば、図4での外側の球面の少し内側に、仮想操作面を球面的に配置する。見え方は例えば図10のように、ある範囲で区切った球面が見えるように配置となる。その球面上にボタンやアイコンを配置すればよい。 When the elbow is fixed and a plane is set within the operating range of the hand, it is necessary to arrange the plane between the two spherical surfaces, so that the arrangement range is narrowed. Therefore, the virtual operation surface may not be a flat surface but may be arranged on a spherical surface within the operating range of the hand. By doing so, the virtual operation surface can be installed over a wide range without moving the elbow. For example, the virtual operation surface is arranged spherically slightly inside the outer spherical surface in FIG. For example, as shown in FIG. 10, the arrangement is such that a spherical surface divided within a certain range can be seen. A button or icon may be placed on the spherical surface.
また、図11のように、面の法線方向がユーザの方向になるように、仮想操作面を配置してもよい。そうすることにより、球面上に面を配置するより押しやすくなる。また、より押しやすいように、仮想操作面をユーザ方向から少し上の方向に向けてもよい。 Further, as shown in FIG. 11, the virtual operation surface may be arranged so that the normal direction of the surface becomes the direction of the user. By doing so, it becomes easier to push than arranging the surface on the spherical surface. Further, the virtual operation surface may be directed slightly upward from the user direction so as to be easier to press.
仮想操作面を2つの球面の間に設置すればよいので、上記の配置や形にこだわらず仮想操作面を曲げて配置してもよい。また、仮想操作面ではなく立体物を配置してもよい。例えば、四角い立方体や球のような表示物を配置し、触る面により操作内容を変えてもよい。また、触った領域と奥行き分、仮想表示が凹んだ位置に表示させるようにし、より触っていることを目で感じさせてもよい。 Since the virtual operation surface may be installed between the two spherical surfaces, the virtual operation surface may be bent and arranged regardless of the above arrangement and shape. Moreover, you may arrange | position a solid object instead of a virtual operation surface. For example, a display object such as a square cube or a sphere may be arranged, and the operation content may be changed depending on the touch surface. Further, the virtual display may be displayed at a position where the virtual display is recessed by the touched area and depth, and the touch may be felt with the eyes.
“肘の位置”から操作しやすい範囲は上記に示したが、“肘の位置”に対して手首までの基準となる基準方向を予め決めておき、ユーザによって異なる肘から手首までの距離に応じて、その基準方向での操作しやすい仮想操作面の位置や向きを特定する。例えば、図16のように、基準方向を決めたら、仮想操作面はその少し下に操作しやすい向きで配置される。 The easy-to-operate range from the “elbow position” is shown above, but the reference direction as the reference to the wrist with respect to the “elbow position” is determined in advance, and depending on the distance from the elbow to the wrist depending on the user Then, the position and orientation of the virtual operation surface that is easy to operate in the reference direction are specified. For example, as shown in FIG. 16, when the reference direction is determined, the virtual operation surface is arranged in a direction that is easy to operate slightly below.
操作中は“肘の位置”は多少なりとも動くので、最初に“肘”で特定した位置を基準として仮想操作面の位置を固定しておいても良いし、“肘の位置”に連動させても良い。また、最初に“肘の位置”を特定した際の肩など動かない体の位置を基準として、仮想操作面の位置を連動させて移動させてもよい。基準方向は予め決めておいても良いが、手を上げて指を人差し指だけ伸ばした状態で操作受付開始とした場合、そのときの手首までの方向を基準方向としても良い。 Since the “elbow position” moves somewhat during operation, the position of the virtual operation surface may be fixed based on the position specified by the “elbow” first, or linked to the “elbow position”. May be. Further, the position of the virtual operation surface may be moved in conjunction with the position of the body that does not move, such as the shoulder when the “elbow position” is first identified. The reference direction may be determined in advance, but when the operation reception is started with the hand raised and the finger extended only by the index finger, the direction to the wrist at that time may be set as the reference direction.
仮想操作面は基準方向に対して相対的な位置と向きとなるように予め設定しておいても良い。人差し指だけ伸ばしたときの手首から指先の角度によっての相対的な位置と向きとなるようにしても良い。このとき相対関係はあらかじめ設定しておく。 The virtual operation surface may be set in advance so as to have a relative position and orientation with respect to the reference direction. You may make it become the relative position and direction by the angle of a fingertip from a wrist when only an index finger is extended. At this time, the relative relationship is set in advance.
また、予め仮想操作面位置を設定しておいて、その位置に合うようにユーザが移動しても良い。例えば、肘当てを用意しておいて、そこに肘を当てたときの仮想操作面となるように位置を設定する。 Further, a virtual operation surface position may be set in advance, and the user may move to match that position. For example, an elbow rest is prepared, and the position is set so as to be a virtual operation surface when the elbow is placed on the elbow rest.
視聴位置判定部16は、取得部12で取得した距離画像に基づいて、ユーザの視聴位置を特定するものである。視聴位置は、ユーザの目の3次元位置データで特定する。
The viewing
作成部17は、視聴位置と3次元表示機器11と仮想操作面の位置の関係に基づいて、3次元表示機器11を利用して仮想操作面の表示を作成する。例えば2視差の表示装置の場合、それぞれの目に対して仮想操作面の位置が決められた位置になるように、取得部12に対しての3次元表示機器11の位置と向きの関係から表示を計算し作成する。取得部12が3次元表示機器11に取り付けられている場合は、取得部12と3次元表示機器11の相対関係は固定されるのであらかじめ3次元表示機器11の位置と向きの相対関係を計算しておく。取得部12が3次元表示機器11に取り付けられていない場合は、取得部12によって3次元表示機器11の位置を特定するなどにより3次元表示機器11の相対関係を計算する。
The
指示部18は、仮想操作面と操作位置により行った操作を特定し操作機器200に操作指示を伝えるものである。仮想操作面と操作位置により行った操作を特定し、操作機器200に操作指示を伝える。例えば仮想操作面に一時停止のマークを表示させておき、手がそのマークを押したら一時停止を操作機器に伝えて一時停止させる。このとき、少しのずれを許容するために、すばやく触る方向に指が動いた場合には、多少遠くても触ったことにしてもよい。
The
次に、以上のように構成された操作装置100による基本的な処理の流れについて説明する。
Next, a basic processing flow by the
図12は、操作装置100における基本的な処理の流れを示すフローチャートである。
FIG. 12 is a flowchart showing a basic processing flow in the
まず、取得部12を構成する深度センサやステレオカメラによって、物体の奥行きを表す距離画像を取得する(ステップS1201)。操作装置100を操作するユーザの体の一部を捉える。
First, a distance image representing the depth of an object is acquired by a depth sensor or a stereo camera constituting the acquisition unit 12 (step S1201). A part of the body of the user who operates the
次に、深度センサやステレオカメラで得たデータに基づいて、基準位置を取得する(ステップS1202)。例えば、基準位置は、ユーザの“肘の位置”である。 Next, a reference position is acquired based on data obtained with a depth sensor or a stereo camera (step S1202). For example, the reference position is the “elbow position” of the user.
次いで、操作装置100において表示させる仮想操作面の配置位置を、“肘の位置”を基準として計算する(ステップS1203)。配置位置の計算処理の流れは後述する。
Next, the placement position of the virtual operation surface to be displayed on the
次いで、ユーザによる仮想操作面上の操作位置を判定する(ステップS1204)。例えば、仮想操作面上のユーザの手の位置が操作位置となる。 Next, the operation position on the virtual operation surface by the user is determined (step S1204). For example, the position of the user's hand on the virtual operation surface is the operation position.
次に、ユーザによる操作機器200に対する操作の有無を判定する(ステップS1205)。 Next, it is determined whether or not the user has operated the operation device 200 (step S1205).
操作していると判定した場合(ステップS1205でYes)には、操作機器200に対して、操作内容を指示(ステップS1206)した後、ステップS1207へ移行する。一方、操作していないと判定した場合(ステップS1205でNo)には、直ちにステップS1207へ移行する。 If it is determined that the user is operating (Yes in step S1205), the operation content is instructed to the operating device 200 (step S1206), and the process proceeds to step S1207. On the other hand, if it is determined that no operation has been performed (No in step S1205), the process immediately proceeds to step S1207.
ステップS1207では、深度センサやステレオカメラで得たデータに基づいて、ユーザが仮想操作面を視聴している位置の判定を行う。 In step S1207, the position where the user is viewing the virtual operation surface is determined based on the data obtained by the depth sensor or the stereo camera.
次いで、作成部17で、表示する仮想操作面の生成を行う(ステップS1208)。
Next, the
次に、作成部17で生成した仮想操作面を、3次元表示機器11に送って表示させる(ステップS1209)。3次元表示機器11は、ユーザから見て仮想操作面があたかも設定あるいは調整された位置に存在するかのように見えるように仮想操作面を表示する。これにより、ユーザは認識した立体映像である仮想操作面に対し、手や指を用いて操作を実行することができる。
Next, the virtual operation surface generated by the
上記に限られず、操作装置100における操作の受付開始は、ユーザの音声やジェスチャーによって決定してもよい。受付を開始後に仮想操作面を表示しても良く、音で受付開始を知らせても良い。
The present invention is not limited to the above, and the start of accepting operations on the
一方、操作装置100における操作の終了は、ユーザが指をたたんだり、手を下ろすことを契機としても良い。さらに、操作受付は指先だけに限り、指先以外が触れた場合には、操作終了としても良い。
On the other hand, the end of the operation in the
図13は、計算部15における仮想操作面の配置位置を計算する処理の流れを示すフローチャートである。
FIG. 13 is a flowchart showing a flow of processing for calculating the placement position of the virtual operation surface in the
まず、基準位置、例えば“肘の位置”から仮想操作面までの距離を、“肘の位置”から操作位置、例えば“手”までの距離によって特定する(ステップS1301)。 First, the distance from the reference position, for example, “elbow position”, to the virtual operation surface is specified by the distance from the “elbow position” to the operation position, for example, “hand” (step S1301).
次に、仮想操作面の向きや配置位置を、基準位置、例えば“肘の位置”を起点として、基準方向、例えば“肘から手の方向”になるように回転処理する(ステップS1302)。 Next, the orientation and the arrangement position of the virtual operation surface are rotated so as to become a reference direction, for example, “the direction from the elbow to the hand”, starting from the reference position, for example, “elbow position” (step S1302).
次いで、仮想操作面の向きや位置を、基準方向より少し下に微調整する(ステップS1303)。仮想操作面を立体表示する位置は、ユーザの操作感として実際に仮想操作面が形成される位置とは若干異なる位置に表示させる方が好適な場合がある。仮想操作面の形成位置と仮想操作面画像の立体表示位置とは必ずしも一致する必要はない。 Next, the orientation and position of the virtual operation surface are finely adjusted slightly below the reference direction (step S1303). In some cases, it is preferable to display the virtual operation surface at a position slightly different from the position where the virtual operation surface is actually formed as the user's operational feeling. The formation position of the virtual operation surface and the stereoscopic display position of the virtual operation surface image do not necessarily match.
以上のようにして、仮想操作面の配置位置が計算される。 As described above, the placement position of the virtual operation surface is calculated.
(変形例)
本実施形態については、以下のような変形例が可能である。
(Modification)
About this embodiment, the following modifications are possible.
<仮想操作面に関して>
仮想操作面はアイコンなどを表示するための土台であるため、面上に操作するアイコンやボタンなどを配置すればよく、面を表示しておく必要は無い。
<Virtual operation surface>
Since the virtual operation surface is a base for displaying icons and the like, it is only necessary to arrange icons and buttons to be operated on the surface, and it is not necessary to display the surface.
図14は、図4に示す2重球面内に仮想操作面を複数用意した一例を示す図である。このような場合には、指の高さに応じて階層を切り替えてもよい。その場合、タッチしたと認識するのは、指を一度すばやく下げ上げすればよい。または、仮想操作面間に隙間を設け、その隙間を手が移動してタッチしないようにしてもよい。階層化した仮想操作面により、操作可能なアイコンを増やすことができる。肘が固定された状態で操作面の面積を小さくせざるを得ない場合に、有効である。 FIG. 14 is a diagram showing an example in which a plurality of virtual operation surfaces are prepared in the double spherical surface shown in FIG. In such a case, the hierarchy may be switched according to the height of the finger. In that case, it is only necessary to quickly raise the finger once to recognize the touch. Alternatively, a gap may be provided between the virtual operation surfaces so that the hand does not move and touch the gap. The number of operable icons can be increased by the hierarchical virtual operation surface. This is effective when the area of the operation surface must be reduced with the elbow fixed.
尚、ユーザにわかりやすくするため、現在操作対象としている階層の表示を濃くし、違う階層は薄く表示するのが好適である。 In order to make it easy for the user to understand, it is preferable that the display of the layer currently being operated is darkened and the different layers are displayed lightly.
図15は、図4に示す2重球面内に、図10のような仮想操作面上に仮想立体アイコンを立体的に表示して操作対象とした一例を示す図である。 FIG. 15 is a diagram illustrating an example in which a virtual solid icon is stereoscopically displayed on the virtual operation surface as illustrated in FIG. 10 as an operation target in the double spherical surface illustrated in FIG.
その場合、タッチしたとするのは、指を一度すばやく下げ上げすればよい。または、立体アイコンの間の隙間を手が移動してタッチしないようにできるようにしてもよい。そうすることにより、肘が固定された状態でも選択できるアイコンを増やすことができる。また、常に操作できるアイコンを表示し続けることができるため、選択したいアイコンが選びやすくなる。また、立体アイコンは四角にこだわらず、丸や三角や、例えば電話の場合電話の形など、意味に合わせた立体の形にしてもよい。 In that case, it is only necessary to quickly raise the finger once to touch. Or you may enable it to prevent a hand moving and touching the clearance gap between solid icons. By doing so, the number of icons that can be selected even when the elbow is fixed can be increased. In addition, since icons that can be operated at all times can be continuously displayed, it is easy to select an icon to be selected. In addition, the solid icon is not limited to a square, but may be a circle or triangle, or a solid shape suitable for the meaning, such as a telephone shape in the case of a telephone.
<基準位置について>
“肘の位置”を固定された基準として説明したが、人の関節ならどこでもよく、例えば、手首基準、指の関節基準、肩基準などとしてもよい。また、操作を足で行う場合には、腰基準、足の付け根基準、ひざ基準、足首基準、足の指の関節基準としてもよい。また、額や舌で操作する場合には、首基準とすればよい。操作できる範囲である仮想操作面は、基準とした関節から先の関節が曲がる範囲内での配置となる。
<About the reference position>
Although the “elbow position” has been described as a fixed reference, it may be any joint of a person, for example, a wrist reference, a finger joint reference, a shoulder reference, or the like. When the operation is performed with the foot, the waist reference, the base of the foot, the knee reference, the ankle reference, and the joint reference of the toes may be used. Moreover, what is necessary is just to set it as a neck reference | standard when operating with a forehead or a tongue. The virtual operation surface, which is an operable range, is arranged within a range in which the previous joint bends from the reference joint.
基準とした“関節の位置”が移動したことに連動して、仮想操作面の位置をずらしてもよい。そのとき、その基準の関節より体側の関節の位置や体の向きによって稼動範囲が変わるため、それを考慮して仮想操作面の位置や向きなどを変更してもよい。例えば、肘が体にくっついているときは、手は体の外側に移動しづらいので仮想操作面は内側にする。そして肘が体から離れているときは、手は体の外側に移動しやすくなるので仮想操作面は外側にする。 The position of the virtual operation surface may be shifted in conjunction with the movement of the “joint position” as a reference. At this time, since the operating range changes depending on the position of the joint on the body side and the orientation of the body relative to the reference joint, the position and orientation of the virtual operation surface may be changed in consideration thereof. For example, when the elbow is attached to the body, the hand is difficult to move to the outside of the body, so the virtual operation surface is set to the inside. When the elbow is away from the body, the hand easily moves to the outside of the body, so the virtual operation surface is on the outside.
基準とした関節が、3次元表示機器の外側に離れすぎた場合、仮想操作面が3次元表示機器の範囲よりはみ出し表示できなくなる。その場合にも、表示されない仮想操作面があるとして操作は受け付けるようにしてもよい。 When the reference joint is too far away from the 3D display device, the virtual operation surface cannot be displayed beyond the range of the 3D display device. Even in this case, the operation may be accepted on the assumption that there is a virtual operation surface that is not displayed.
関節基準ではなく、肘当てのように何かに体の一部を当てた位置を基準としてもよい。他に、両手のひらの付け根を両ひざの上に置き、その手のひらの位置を基準として、キーボードやテンキーやボタンの仮想操作表示をしてもよい。その場合、キーボードひとつとせず、左右に分割して表示してもよい。また、車を運転中の場合手のひらの付け根をハンドルの上に置いたときでもよい。その場合、3次元表示機器はHUD(ヘッドアップディスプレイ)でもよい。また、ハンドルは円状に回転するので、位置だけではなく仮想操作面をそれに合わせて回転させても良い。操作できる範囲である仮想操作面は、基準とした接点から次の関節までの自由度と、その関節から先の関節が曲がる範囲での配置となる。 Instead of the joint reference, a position where a part of the body is applied to something like an elbow rest may be used as a reference. In addition, the base of both palms may be placed on both knees, and the virtual operation display of the keyboard, numeric keys, and buttons may be displayed based on the position of the palm. In that case, the display may be divided into left and right instead of a single keyboard. Further, when the car is being driven, the palm may be placed on the handle. In that case, the 3D display device may be a HUD (head-up display). Further, since the handle rotates in a circular shape, not only the position but also the virtual operation surface may be rotated in accordance therewith. The virtual operation surface, which is an operable range, has a degree of freedom from the reference contact point to the next joint, and an arrangement in a range where the previous joint bends.
手首の関節を基準とした場合に、肘の位置からの表示面の向きが変わらないように、手首の位置に連動させて、仮想操作面の位置を移動に加え、回転して表示してもよい。 When the wrist joint is used as a reference, the position of the virtual operation surface is linked to the wrist position so that the orientation of the display surface from the elbow position does not change. Good.
<3次元表示機器の配置>
仮想操作面を表示するためには、3次元表示機器を図3のように縦に長くしておくか、もしくは図17のように、通常の表示機器の下方に、仮想操作面表示用の3次元表示機器11を別途、配置してもよい。家庭などで仮想操作面表示をする場合には、図18のように、テレビなどの表示機器の手前の下に、床で真上向きや視聴者に見やすいように斜めに設置し、仮想操作面を斜めに設置して、手をあまり上げずに操作できるようにしてもよい。
<Arrangement of 3D display device>
In order to display the virtual operation surface, the three-dimensional display device is lengthened vertically as shown in FIG. 3, or the virtual operation surface display 3 is displayed below the normal display device as shown in FIG. The
<操作の受付>
ユーザが仮想操作面を見ている場合のみ、操作を受け付けるようにして誤動作を防止するのが好適である。
<Accepting operations>
It is preferable to prevent the malfunction by accepting the operation only when the user is looking at the virtual operation surface.
<タッチの感触について>
空気流を発射する空気銃を、仮想操作面の近傍に設置し、仮想操作面を触ったことがユーザに判るようにするのが好適である。
<About touch feeling>
It is preferable to install an air gun that emits an air flow in the vicinity of the virtual operation surface so that the user can know that the virtual operation surface has been touched.
仮想操作面に触ったことを認識して、空気銃から手に空気流を当てる。一つの空気銃で指の位置に空気銃の向きを追従させてもよいし、3次元表示機器面に透明の空気銃を敷き詰めて触った領域のみ空気を発射させてもよい。空気銃を敷き詰める場合は、3次元表示機器などの面に、配置し平行に照射してもよい。 Recognizing that the virtual operation surface has been touched, airflow is applied to the hand from the air gun. One air gun may cause the direction of the air gun to follow the position of the finger, or a transparent air gun may be spread over the surface of the three-dimensional display device and air may be fired only in the touched area. When air guns are spread, they may be arranged on a surface of a three-dimensional display device and irradiated in parallel.
図17は、空気銃の配置の一例を示す図である。図17に示すように、表示機器と仮想操作面表示用の3次元表示機器との間など横長の隙間に、線に配置し縦方向の放射線状に照射してもよい。また、点に配置し点の放射線状に照射してもよい。また、図19のように、ヘッドマウントディスプレイなどでは空気銃を機器の裏側に、面にたくさん敷き詰めて配置しておいて、仮想操作面に触った領域のみ空気を発射させてもよい。それぞれの空気銃に対して指を追従させて、より近い位置の空気銃から発射させてもよい。また、近いほど空気銃の強度を大きくしてもよい。また、ボタンのある領域に指が来た場合、空気銃を弱く照射し、ボタンが押されたら空気銃を強く照射して、ボタンを押している感覚をさせてもよい。また、空気銃が指の温度と近くなるようにヒーターを使って温度調整をしてもよい。その場合、指の温度を読み取っておいて、その温度にしたがって、発射する空気の温度を変えてもよい。 FIG. 17 is a diagram illustrating an example of the arrangement of air guns. As shown in FIG. 17, a radiation may be irradiated in the vertical direction in a line in a horizontally long gap such as between a display device and a virtual operation surface display three-dimensional display device. Moreover, it may arrange | position to a point and may irradiate to the radial form of a point. Further, as shown in FIG. 19, in a head mounted display or the like, air guns may be arranged on the back side of the device with a large number of air guns disposed on the surface, and air may be emitted only in an area touching the virtual operation surface. A finger may be caused to follow each of the air guns, and may be fired from a closer air gun. Moreover, you may enlarge the intensity | strength of an air gun, so that it is near. Further, when the finger comes to the area where the button is located, the air gun may be weakly irradiated, and when the button is pressed, the air gun may be strongly irradiated to feel the button being pressed. The temperature may be adjusted using a heater so that the air gun is close to the temperature of the finger. In that case, the temperature of the finger may be read and the temperature of the air to be fired may be changed according to the temperature.
本実施形態によれば、手の揺らぎが起きにくい状態で操作することが可能となるので、車など乗り物の振動による手の動きや手振れを軽減するもので操作性が著しく向上する。また、肘をあまり動かさなくてすむため、疲れを軽減することもできる。 According to the present embodiment, since it is possible to operate in a state in which hand shaking is unlikely to occur, operability is remarkably improved by reducing hand movement and hand shake due to vibration of a vehicle such as a car. In addition, fatigue can be reduced because the elbows do not need to be moved much.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
100・・・操作装置
11・・・3次元表示機器
12・・・取得部
13・・・操作位置判定部
14・・・基準位置取得部
15・・・計算部
16・・・視聴位置判定部
17・・・作成部
18・・・指示部
200・・・操作機器
DESCRIPTION OF
Claims (16)
ユーザに対向して配置され、ユーザの距離画像を取得する取得部と、
前記取得部で取得した距離画像データに基づいて、前記仮想操作面を操作するユーザの操作位置を判定する操作位置判定部と、
前記取得部で取得した距離画像データに基づいて、前記仮想操作面を配置する際に基準となる基準位置を取得する基準位置取得部と、
前記基準位置取得部で取得した基準位置の位置データに基づいて、前記仮想操作面の配置位置を計算する計算部と、
前記取得部で取得した距離画像データに基づいて、ユーザの視聴位置を判定する視聴位置判定部と、
前記視聴位置の位置データ、前記3次元表示機器の位置データおよび前記仮想操作面の位置データに基づいて、立体表示する前記仮想操作面の表示データを作成し、前記3次元表示機器に送出する作成部と、
前記操作位置データおよび前記仮想操作面の位置データに基づいて、前記操作機器に対する操作内容を判定して前記操作機器に指示する指示部とを備える操作装置。 A three-dimensional display device that is arranged facing the user and displays a three-dimensional virtual operation surface for the user to input commands and information to the operation device;
An acquisition unit arranged to face the user and acquiring a distance image of the user;
An operation position determination unit that determines an operation position of a user operating the virtual operation surface based on the distance image data acquired by the acquisition unit;
Based on the distance image data acquired by the acquisition unit, a reference position acquisition unit that acquires a reference position serving as a reference when placing the virtual operation surface;
Based on the position data of the reference position acquired by the reference position acquisition unit, a calculation unit that calculates the placement position of the virtual operation surface;
A viewing position determination unit that determines the viewing position of the user based on the distance image data acquired by the acquisition unit;
Creation of display data of the virtual operation surface to be stereoscopically displayed based on the position data of the viewing position, the position data of the 3D display device, and the position data of the virtual operation surface, and sending the display data to the 3D display device And
An operating device comprising: an instruction unit that determines an operation content for the operation device based on the operation position data and the position data of the virtual operation surface and instructs the operation device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012201394A JP2014056462A (en) | 2012-09-13 | 2012-09-13 | Operation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012201394A JP2014056462A (en) | 2012-09-13 | 2012-09-13 | Operation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014056462A true JP2014056462A (en) | 2014-03-27 |
Family
ID=50613716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012201394A Pending JP2014056462A (en) | 2012-09-13 | 2012-09-13 | Operation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014056462A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016031761A (en) * | 2014-07-25 | 2016-03-07 | 裕行 池田 | Spectacle type terminal |
JP2016091192A (en) * | 2014-10-31 | 2016-05-23 | パイオニア株式会社 | Virtual image display apparatus, control method, program, and storage medium |
JP2016110177A (en) * | 2014-12-02 | 2016-06-20 | 株式会社トプコン | Three-dimensional input device and input system |
JP2016118947A (en) * | 2014-12-22 | 2016-06-30 | 日本ユニシス株式会社 | Spatial handwriting input system using angle-adjustable virtual plane |
WO2016208216A1 (en) * | 2015-06-22 | 2016-12-29 | 株式会社村田製作所 | User interface device and distance sensor |
WO2017188098A1 (en) * | 2016-04-27 | 2017-11-02 | カルソニックカンセイ株式会社 | Vehicle-mounted information processing system |
KR20190025934A (en) * | 2016-07-22 | 2019-03-12 | 구글 엘엘씨 | Detection of User Motion Range for Virtual Reality User Interface |
JP2019123503A (en) * | 2019-02-25 | 2019-07-25 | パイオニア株式会社 | Virtual image display apparatus, control method, program, and storage medium |
JP2020160875A (en) * | 2019-03-27 | 2020-10-01 | 株式会社Subaru | Contactless operation device of vehicle, and vehicle |
JP2021014262A (en) * | 2020-10-26 | 2021-02-12 | パイオニア株式会社 | Virtual image display apparatus, control method, program, and storage medium |
JP7080448B1 (en) | 2021-03-08 | 2022-06-06 | 裕行 池田 | Terminal device |
US11429200B2 (en) | 2020-10-13 | 2022-08-30 | Hiroyuki Ikeda | Glasses-type terminal |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005025116A (en) * | 2003-07-03 | 2005-01-27 | Sony Corp | Information presenting device and information presenting method, information presentation system, and computer program |
JP2011175617A (en) * | 2010-01-29 | 2011-09-08 | Shimane Prefecture | Image recognition apparatus, operation determination method, and program |
JP2011212270A (en) * | 2010-03-31 | 2011-10-27 | Namco Bandai Games Inc | Program, information storage medium and image generation system |
JP2011227672A (en) * | 2010-04-19 | 2011-11-10 | Sharp Corp | Input device, information processor and information processing system |
WO2012039140A1 (en) * | 2010-09-22 | 2012-03-29 | 島根県 | Operation input apparatus, operation input method, and program |
-
2012
- 2012-09-13 JP JP2012201394A patent/JP2014056462A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005025116A (en) * | 2003-07-03 | 2005-01-27 | Sony Corp | Information presenting device and information presenting method, information presentation system, and computer program |
JP2011175617A (en) * | 2010-01-29 | 2011-09-08 | Shimane Prefecture | Image recognition apparatus, operation determination method, and program |
JP2011212270A (en) * | 2010-03-31 | 2011-10-27 | Namco Bandai Games Inc | Program, information storage medium and image generation system |
JP2011227672A (en) * | 2010-04-19 | 2011-11-10 | Sharp Corp | Input device, information processor and information processing system |
WO2012039140A1 (en) * | 2010-09-22 | 2012-03-29 | 島根県 | Operation input apparatus, operation input method, and program |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10585288B2 (en) | 2014-07-25 | 2020-03-10 | Hiroyuki Ikeda | Computer display device mounted on eyeglasses |
US10191282B2 (en) | 2014-07-25 | 2019-01-29 | Hiroyuki Ikeda | Computer display device mounted on eyeglasses |
JP2016031761A (en) * | 2014-07-25 | 2016-03-07 | 裕行 池田 | Spectacle type terminal |
JP2016091192A (en) * | 2014-10-31 | 2016-05-23 | パイオニア株式会社 | Virtual image display apparatus, control method, program, and storage medium |
JP2016110177A (en) * | 2014-12-02 | 2016-06-20 | 株式会社トプコン | Three-dimensional input device and input system |
JP2016118947A (en) * | 2014-12-22 | 2016-06-30 | 日本ユニシス株式会社 | Spatial handwriting input system using angle-adjustable virtual plane |
WO2016208216A1 (en) * | 2015-06-22 | 2016-12-29 | 株式会社村田製作所 | User interface device and distance sensor |
WO2017188098A1 (en) * | 2016-04-27 | 2017-11-02 | カルソニックカンセイ株式会社 | Vehicle-mounted information processing system |
KR102239855B1 (en) * | 2016-07-22 | 2021-04-13 | 구글 엘엘씨 | Detection of user motion range for virtual reality user interface |
KR20190025934A (en) * | 2016-07-22 | 2019-03-12 | 구글 엘엘씨 | Detection of User Motion Range for Virtual Reality User Interface |
JP2019123503A (en) * | 2019-02-25 | 2019-07-25 | パイオニア株式会社 | Virtual image display apparatus, control method, program, and storage medium |
JP2020160875A (en) * | 2019-03-27 | 2020-10-01 | 株式会社Subaru | Contactless operation device of vehicle, and vehicle |
JP7304184B2 (en) | 2019-03-27 | 2023-07-06 | 株式会社Subaru | Non-contact operating device for vehicle and vehicle |
US11429200B2 (en) | 2020-10-13 | 2022-08-30 | Hiroyuki Ikeda | Glasses-type terminal |
JP2021014262A (en) * | 2020-10-26 | 2021-02-12 | パイオニア株式会社 | Virtual image display apparatus, control method, program, and storage medium |
JP7100100B2 (en) | 2020-10-26 | 2022-07-12 | パイオニア株式会社 | Virtual image display device, control method, program, and storage medium |
JP7080448B1 (en) | 2021-03-08 | 2022-06-06 | 裕行 池田 | Terminal device |
JP2022136951A (en) * | 2021-03-08 | 2022-09-21 | 裕行 池田 | Terminal device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014056462A (en) | Operation device | |
US11347311B2 (en) | Systems and methods for providing haptic feedback for remote interactions | |
JP6702489B2 (en) | Head mounted display, information processing method, and program | |
US10495878B2 (en) | Mobile terminal and controlling method thereof | |
JP6480434B2 (en) | System and method for direct pointing detection for interaction with digital devices | |
JP6116934B2 (en) | Icon operation device | |
EP3497542A1 (en) | Mediation of interaction methodologies in immersive environments | |
US9470894B2 (en) | Head mounted display and method of controlling the same | |
WO2016138178A1 (en) | Visual gestures for a head mounted device | |
US11714540B2 (en) | Remote touch detection enabled by peripheral device | |
KR102147430B1 (en) | virtual multi-touch interaction apparatus and method | |
US10203781B2 (en) | Integrated free space and surface input device | |
US20200150605A1 (en) | Head mounted display device | |
KR101708455B1 (en) | Hand Float Menu System | |
JPWO2021059359A1 (en) | Animation production system | |
US10664046B2 (en) | Head mounted display device | |
JP2016126687A (en) | Head-mounted display, operation reception method, and operation reception program | |
WO2013111280A1 (en) | Display apparatus and display method | |
JP2012194626A (en) | Display device | |
JP2006302029A (en) | Display device control program, display device control method and display device | |
KR20170082924A (en) | Apparatus and method for user input display using gesture | |
JP4757132B2 (en) | Data input device | |
US20240103712A1 (en) | Devices, Methods, and Graphical User Interfaces For Interacting with Three-Dimensional Environments | |
WO2023181549A1 (en) | Control device, control method, and program | |
US11307762B2 (en) | Operating user interfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150608 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160513 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161213 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170328 |