JP2014056462A - Operation device - Google Patents

Operation device Download PDF

Info

Publication number
JP2014056462A
JP2014056462A JP2012201394A JP2012201394A JP2014056462A JP 2014056462 A JP2014056462 A JP 2014056462A JP 2012201394 A JP2012201394 A JP 2012201394A JP 2012201394 A JP2012201394 A JP 2012201394A JP 2014056462 A JP2014056462 A JP 2014056462A
Authority
JP
Japan
Prior art keywords
operation surface
virtual operation
user
virtual
elbow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012201394A
Other languages
Japanese (ja)
Inventor
Masanori Ozaki
正憲 小崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Alpine Automotive Technology Inc
Original Assignee
Toshiba Alpine Automotive Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Alpine Automotive Technology Inc filed Critical Toshiba Alpine Automotive Technology Inc
Priority to JP2012201394A priority Critical patent/JP2014056462A/en
Publication of JP2014056462A publication Critical patent/JP2014056462A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an operation device that is excellent in operability, lessens a hand shake upon operation and hardly generates weariness.SOLUTION: The operation device comprises: a three-dimensional display device 11 that is arranged to be directed at a user and three-dimensionally displays a virtual operation surface used for inputting an order or information to an operation device by the user; an acquisition 12 that is arranged to be directed at the user and acquires a distance image of the user; an operation position determination part 13 that determines an operation position of the user operating the virtual operation surface; a reference position acquisition part 14 that acquires a reference position serving as a reference when arranging the virtual operation surface; a calculation part 15 that calculates an arrangement position of the virtual operation surface; a viewing position determination part 16 that determines a viewing position of the user; a preparation part 17 that prepares display data on the virtual operation surface to be three-dimensionally displayed, and transmits the display data to the three-dimensional display device 11; and an instruction part 18 that, on the basis of operation position data and position data on the virtual operation surface, determines an operation content to the operation device and instructs the determined operation content to an operation device 200.

Description

本発明の実施形態は、操作時の手振れを軽減させる操作装置に関する。   Embodiments described herein relate generally to an operation device that reduces camera shake during operation.

機器を操作する際には、機器に対する命令や情報の入力が欠かせない。しかし、車などの乗物内で操作機器へ手を伸ばして操作する場合、車の振動や手振れにより正しい位置に手を持っていきづらい。   When operating a device, it is indispensable to input commands and information to the device. However, when reaching and operating the control device in a vehicle such as a car, it is difficult to hold the hand in the correct position due to vibrations or camera shake.

そこで、3次元表示機器の手前に仮想操作面を表示させることにより、手の操作位置と表示位置を一致させて直感的に操作ができるようにしたり、仮想操作面を形成する場合には、操作者の位置、モニタやステレオカメラの配置態様に応じて適宜調整することが行われている。   Therefore, the virtual operation surface is displayed in front of the 3D display device so that the operation position of the hand matches the display position so that the operation can be performed intuitively, or when the virtual operation surface is formed, Adjustments are made as appropriate according to the position of the person and the arrangement of the monitor and stereo camera.

また、利用者の操作を限定することなく、表示上の操作位置に対する利用者の操作位置を認識させることができるように、利用者の近くに操作基準面及び仮想操作面を設定するものも提案されている。   In addition, it is also proposed to set an operation reference plane and a virtual operation plane near the user so that the user's operation position relative to the displayed operation position can be recognized without limiting the user's operation. Has been.

しかし、表示装置と平行に仮想操作面が表示され、地面に対して垂直に仮想操作面を設ける場合には、見にくいだけでなく、手を前に出さなくてはならず、肘を上げることになり手が振動の影響を受けやすくなる。また、操作面の向きがユーザに対して垂直なので操作しづらいという問題がある。   However, when the virtual operation surface is displayed parallel to the display device and the virtual operation surface is provided perpendicular to the ground, not only is it difficult to see, but the hand must be put forward and the elbow is raised. The limb is susceptible to vibration. There is also a problem that it is difficult to operate because the direction of the operation surface is perpendicular to the user.

特開2011−175617号公報JP 2011-175617 A 特開2011−187086号公報JP 2011-187086 A

本発明が解決しようとする課題は、操作性が良好で、操作時の手振れを軽減させ、疲労しにくい操作装置を提供することである。   The problem to be solved by the present invention is to provide an operating device that has good operability, reduces camera shake during operation, and is less fatigued.

実施形態の操作装置は、ユーザに対向して配置され、ユーザが操作機器に対して命令や情報を入力するための仮想操作面を立体的に表示する3次元表示機器と、ユーザに対向して配置され、ユーザの距離画像を取得する取得部と、前記取得部で取得した距離画像データに基づいて、前記仮想操作面を操作するユーザの操作位置を判定する操作位置判定部と、前記取得部で取得した距離画像データに基づいて、前記仮想操作面を配置する際に基準となる基準位置を取得する基準位置取得部と、前記基準位置取得部で取得した基準位置の位置データに基づいて、前記仮想操作面の配置位置を計算する計算部と、前記取得部で取得した距離画像データに基づいて、ユーザの視聴位置を判定する視聴位置判定部と、前記視聴位置の位置データ、前記3次元表示機器の位置データおよび前記仮想操作面の位置データに基づいて、立体表示する前記仮想操作面の表示データを作成し、前記3次元表示機器に送出する作成部と、前記操作位置データおよび前記仮想操作面の位置データに基づいて、前記操作機器に対する操作内容を判定して前記操作機器に指示する指示部とを備える。   The operation device according to the embodiment is arranged to face the user, a three-dimensional display device that stereoscopically displays a virtual operation surface for the user to input commands and information to the operation device, and the user An acquisition unit that is arranged and acquires a distance image of the user, an operation position determination unit that determines an operation position of a user who operates the virtual operation surface based on the distance image data acquired by the acquisition unit, and the acquisition unit On the basis of the distance image data acquired in step (b), based on the reference position acquisition unit that acquires a reference position serving as a reference when placing the virtual operation surface, and the position data of the reference position acquired by the reference position acquisition unit, A calculation unit that calculates an arrangement position of the virtual operation surface; a viewing position determination unit that determines a viewing position of a user based on the distance image data acquired by the acquisition unit; position data of the viewing position; Based on the position data of the original display device and the position data of the virtual operation surface, the display unit generates the display data of the virtual operation surface to be stereoscopically displayed and sends it to the three-dimensional display device, the operation position data, and the And an instruction unit that determines operation contents for the operation device based on position data of the virtual operation surface and instructs the operation device.

本発明の実施形態に係る操作装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the operating device which concerns on embodiment of this invention. 取得部と取得する距離画像の位置の座標系を示す図である。It is a figure which shows the coordinate system of the position of the acquisition part and the distance image to acquire. 3次元表示機器や取得部の配置の一例を示す図である。It is a figure which shows an example of arrangement | positioning of a three-dimensional display apparatus and an acquisition part. 手の稼動範囲と仮想操作面の配置との関係を説明する図である。It is a figure explaining the relationship between the operating range of a hand and arrangement | positioning of a virtual operation surface. 手首固定で、仮想操作面を操作できる範囲を示す図である。It is a figure which shows the range which can operate a virtual operation surface by wrist fixing. 手首固定で、仮想操作面を操作できる範囲を示す図である。It is a figure which shows the range which can operate a virtual operation surface by wrist fixing. 手首固定で、仮想操作面を操作できる範囲を示す図である。It is a figure which shows the range which can operate a virtual operation surface by wrist fixing. 手首固定で、仮想操作面を操作できる範囲を示す図である。It is a figure which shows the range which can operate a virtual operation surface by wrist fixing. 手首固定で、仮想操作面を操作できる範囲を示す図である。It is a figure which shows the range which can operate a virtual operation surface by wrist fixing. 球面的な仮想操作面の配置例を示す図である。It is a figure which shows the example of arrangement | positioning of a spherical virtual operation surface. 面の向きがユーザの方向となる仮想操作面の配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the virtual operation surface in which the direction of a surface turns into a user's direction. 実施形態に係る操作装置における基本的な処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the basic process in the operating device which concerns on embodiment. 計算部における仮想操作面の配置位置を計算する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which calculates the arrangement position of the virtual operation surface in a calculation part. 図4に示す2重球面内に仮想操作面を複数用意した一例を示す図である。FIG. 5 is a diagram illustrating an example in which a plurality of virtual operation surfaces are prepared in the double spherical surface illustrated in FIG. 4. 図4に示す2重球面内に、仮想立体アイコンを立体的に表示して操作対象とした一例を示す図である。It is a figure which shows an example which made the virtual solid icon three-dimensionally display in the double spherical surface shown in FIG. 4, and was made into the operation target. 面の向きがユーザに対して同じ仮想操作面の配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the virtual operation surface with the same direction of a surface with respect to a user. 通常の表示機器の下方に、3次元表示機器を配置する例を示すとともに、空気銃の配置の一例を示す図である。It is a figure which shows an example which arrange | positions a three-dimensional display apparatus below a normal display apparatus, and an example of arrangement | positioning of an air gun. 家庭での3次元表示機器による仮想操作面を示す図である。It is a figure which shows the virtual operation surface by the three-dimensional display apparatus at home. ヘッドマウントディスプレイによる仮想操作面と空気銃の配置の一例を示す図である。It is a figure which shows an example of arrangement | positioning of the virtual operation surface and air gun by a head mounted display.

以下、本発明の一実施の形態について、図面を参照して説明する。尚、各図において同一箇所については同一の符号を付すとともに、重複した説明は省略する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the drawings, the same portions are denoted by the same reference numerals, and redundant description is omitted.

本実施形態に係る操作装置では、例えば肘あるいは肘の位置を基準位置とし、肘あるいは肘の位置をあまり動かさずにタッチ操作できるように、仮想操作面の位置や向きや形状を考慮して立体表示する。   In the operation device according to the present embodiment, for example, the position of the elbow or the elbow is set as the reference position, and the three-dimensional operation is performed in consideration of the position, orientation, and shape of the virtual operation surface so that the touch operation can be performed without moving the elbow or the elbow. indicate.

本実施形態に係る操作装置は、演算処理装置(CPU)、主メモリ(RAM)、読出し専用メモリ(ROM)、入力装置(例えば、操作パネルなど)、ハードディスク装置や半導体メモリであるフラッシュメモリを使用したソリッドステートドライブ(SSD)装置等の記憶装置を具備したパーソナル・コンピュータ等の汎用計算機を用いることができ、仮想操作面の立体表示及び操作支援用の処理プログラムをインストールすることにより実現できる。   The operation device according to the present embodiment uses an arithmetic processing unit (CPU), a main memory (RAM), a read-only memory (ROM), an input device (for example, an operation panel), a hard disk device, or a flash memory that is a semiconductor memory. A general-purpose computer such as a personal computer equipped with a storage device such as a solid state drive (SSD) device can be used, and can be realized by installing a processing program for stereoscopic display of the virtual operation surface and operation support.

図1は、本発明の実施形態に係る操作装置100の概略構成を示すブロック図である。実施形態に係る操作装置100は、主として3次元表示機器11、取得部12、操作位置判定部13、基準位置取得部14、計算部15、視聴位置判定部16、作成部17、指示部18から構成されている。図2は、取得部と取得する距離画像の位置の座標系を示す図である。図3は、3次元表示機器11や取得部12の配置の一例を示す図である。   FIG. 1 is a block diagram showing a schematic configuration of an operating device 100 according to an embodiment of the present invention. The operation device 100 according to the embodiment mainly includes a 3D display device 11, an acquisition unit 12, an operation position determination unit 13, a reference position acquisition unit 14, a calculation unit 15, a viewing position determination unit 16, a creation unit 17, and an instruction unit 18. It is configured. FIG. 2 is a diagram illustrating a coordinate system of an acquisition unit and a position of a distance image to be acquired. FIG. 3 is a diagram illustrating an example of the arrangement of the three-dimensional display device 11 and the acquisition unit 12.

操作装置100は、操作機器200に対して、指示部18から指示を発して操作機器200を操作する。操作機器200は、例えば車載ステレオ装置である。指示部18により音量をアップするように指示が来た場合、音量をアップする。   The operating device 100 operates the operating device 200 by issuing an instruction from the instruction unit 18 to the operating device 200. The operating device 200 is an in-vehicle stereo device, for example. When the instruction unit 18 instructs to increase the volume, the volume is increased.

3次元表示機器11は、ユーザに対向して配置され、ユーザが操作機器に対して命令や情報を入力するための仮想操作面を立体的に表示するものである。3次元表示機器11は、図3に示すように、例えば車両の運転席の前方に配置することができる。3次元表示機器11は、車両の助手席の裏側に配置することもできる。このような場合には、車両の後部座席の着席者が操作装置100を操作する。   The three-dimensional display device 11 is arranged to face the user, and three-dimensionally displays a virtual operation surface for the user to input commands and information to the operation device. As shown in FIG. 3, the three-dimensional display device 11 can be disposed, for example, in front of the driver's seat of the vehicle. The three-dimensional display device 11 can also be disposed on the back side of the passenger seat of the vehicle. In such a case, a seated person in the rear seat of the vehicle operates the operation device 100.

ユーザは、例えば3次元表示機器11との間の一定の位置に立体表示された仮想操作面に対し、指などの形状が操作判定の対象となることを意識して操作を行うことができる。3次元表示機器11は、ユーザの両眼に対して別々の画像を提示することにより、ユーザが立体視できるものである。一般的には、左右眼に視差のある映像を提示すると同時に、ユーザの頭部運動に合わせて映像の見え方を変化させる必要がある。   For example, the user can perform an operation on the virtual operation surface stereoscopically displayed at a certain position with the 3D display device 11 while being aware that the shape of a finger or the like is an operation determination target. The 3D display device 11 can be stereoscopically viewed by the user by presenting separate images to both eyes of the user. In general, it is necessary to present an image with parallax to the left and right eyes and change the appearance of the image in accordance with the user's head movement.

3次元表示機器11には、例えば、ヘッドアップディスプレイ、プロジェクタ、裸眼立体視ディスプレイ、偏光眼鏡でのディスプレイ、フォログラム等で構成することができる。カーナビゲーション装置の画面やインパネを利用することもできる。3次元表示機器11が、ヘッドマウントディスプレイなどピントが変えられる機器では、操作表示位置と指とで目のピントが同じ位置になるように、表示のピントの位置を合わせて表示させるのが好適である。   The three-dimensional display device 11 can be configured with, for example, a head-up display, a projector, a naked-eye stereoscopic display, a display with polarized glasses, a follower, or the like. You can also use the screen and instrument panel of the car navigation system. When the 3D display device 11 is a device that can change the focus, such as a head-mounted display, it is preferable that the display focus position is aligned and displayed so that the eye focus is the same at the operation display position and the finger. is there.

取得部12は、操作装置100に対面するユーザを含む物体との距離情報を画像形式で取得するものである。取得した距離画像データは、操作位置判定部13、基準位置取得部14、視聴位置判定部16に送られる。取得部12は、例えばステレオカメラあるいは深度センサで構成することができる。ステレオカメラは、対象物を複数の異なる方向から同時に撮影することにより、その奥行き方向の情報も記録できるようにしたカメラである。ステレオ画像から距離を求める場合には、三角測量の原理を用いるのが通常である。また、深度センサでは、ある一定の範囲に赤外線を照射して細かい点が分布した状態とし、そこに存在する物体によって点の模様が変化するので、それを捉えて奥行き情報を得る。   The acquisition unit 12 acquires distance information with respect to an object including a user facing the controller device 100 in an image format. The acquired distance image data is sent to the operation position determination unit 13, the reference position acquisition unit 14, and the viewing position determination unit 16. The acquisition unit 12 can be configured by a stereo camera or a depth sensor, for example. A stereo camera is a camera that can record information in the depth direction by simultaneously photographing an object from a plurality of different directions. When obtaining a distance from a stereo image, it is usual to use the principle of triangulation. Further, the depth sensor irradiates infrared rays to a certain range to obtain a state where fine dots are distributed, and the pattern of the dots changes depending on the object existing there.

操作位置判定部13は、取得部12で取得した距離画像データに基づいて、物体までの奥行きを取得し、仮想操作面を操作する手の3次元位置を特定するものである。手の位置の特定は、体から出ている棒状の物体の先端を手と認識すればよい。その形状をそのままの形で認識する。   The operation position determination unit 13 acquires the depth to the object based on the distance image data acquired by the acquisition unit 12, and specifies the three-dimensional position of the hand operating the virtual operation surface. The position of the hand may be identified by recognizing the tip of a rod-shaped object coming out of the body as a hand. The shape is recognized as it is.

基準位置取得部14は、取得部12で取得した距離画像データに基づいて、仮想操作面を配置する際の基準となる位置を特定するものである。本実施形態では、“基準位置”として“関節の位置”や“肘が接している場所”すなわち“肘の位置”についての3次元情報によって特定する。ステレオカメラで取得した距離画像に限られず、深度センサや圧力センサなどで取得したデータを利用して、“基準位置”を特定してもよい。“肘の位置”の特定には、例えば圧力センサをユーザの着席近傍に設けた肘当てに設置し、最も圧力が高い箇所を“肘の位置”とすることが出来る。また、手首から肘までの長さを決めておき、手首の位置から指のある方の反対側に伸びている方向をその長さで延ばした位置が、“肘の位置”となる。手首から肘までの長さの特定は、ステレオカメラから見て肘の折曲がりを確認できる位置に腕を配置し、肘を伸ばしたり折り曲げたりして肩から肘までの直線と肘から手首までの直線の2つを認識し、その交点と手首までの距離で決めればよい。特定した“基準位置”や“腕の位置”の3次元情報は、計算部15に送られる。   Based on the distance image data acquired by the acquisition unit 12, the reference position acquisition unit 14 specifies a position that serves as a reference when placing the virtual operation surface. In the present embodiment, the “reference position” is specified by three-dimensional information about “the position of the joint” and “the place where the elbow is in contact”, ie, “the position of the elbow”. The “reference position” may be specified using data acquired by a depth sensor, a pressure sensor, or the like without being limited to the distance image acquired by the stereo camera. In order to specify the “elbow position”, for example, a pressure sensor can be installed in an elbow rest provided near the user's seat, and the position where the pressure is highest can be set as the “elbow position”. Further, the position from the wrist to the elbow and the direction extending from the wrist to the opposite side of the finger is extended by the length is the “elbow position”. To determine the length from the wrist to the elbow, place the arm in a position where you can confirm the bending of the elbow as seen from the stereo camera, and extend and bend the elbow to straight line from the shoulder to the elbow and from the elbow to the wrist. What is necessary is just to recognize two of the straight lines and determine the distance between the intersection and the wrist. The identified three-dimensional information such as “reference position” and “arm position” is sent to the calculation unit 15.

計算部15は、得られた“腕の位置”や“基準位置”の3次元情報に基づいて、“仮想操作面”の配置位置を計算するものである。“仮想操作面”は平面としてもよいが、平面に限る必要はない。以下、平面とした“仮想操作面”、平面でない“仮想操作面”について詳述する。   The calculation unit 15 calculates the arrangement position of the “virtual operation surface” based on the obtained three-dimensional information of “arm position” and “reference position”. The “virtual operation surface” may be a plane, but need not be limited to a plane. Hereinafter, a “virtual operation surface” that is a plane and a “virtual operation surface” that is not a plane will be described in detail.

<仮想操作面を平面とした場合>
図4は、手の稼動範囲と仮想操作面の配置との関係を説明する図である。図4を使用して仮想操作面を平面とした場合を説明する。“手首”を固定した場合、手を動かせる範囲は、肘から手首までの直線上に手がある状態(以下、状態Aという)から、手首を支点にして前方向は90度傾けた状態(以下、状態Bという)までである。また、支点に対して後ろ方向は90度傾けた状態(以下、状態Cという)までである。また、支点に対して横方向も同様に90度傾けた状態までである。尚、手首が柔軟で手を動かせる範囲が広いユーザの場合には、手の稼動範囲を広げてもよい。
<When the virtual operation surface is a plane>
FIG. 4 is a diagram illustrating the relationship between the operating range of the hand and the placement of the virtual operation surface. A case where the virtual operation surface is a plane will be described with reference to FIG. When “wrist” is fixed, the range of movement of the hand is from the state where the hand is on the straight line from the elbow to the wrist (hereinafter referred to as state A), with the wrist tilted 90 degrees forward (hereinafter referred to as state A). Until state B). Further, the rearward direction is up to a state tilted by 90 degrees (hereinafter referred to as state C). Similarly, the horizontal direction is also tilted by 90 degrees. In addition, in the case of a user whose wrist is flexible and the range in which the hand can be moved is wide, the operating range of the hand may be expanded.

次に、“肘の位置”を固定した状態で、状態Aでの指先位置が到達する(届く)範囲は肘から等距離となる球(図4では、外側の円)となり、状態Bや状態Cでの指先位置が到達する(届く)範囲は肘から等距離となる球(図4では、内側の円)となる。つまり、外側の球と内側の球の間に、仮想操作面を配置すればよいことになる。   Next, in a state where the “elbow position” is fixed, the range in which the fingertip position reaches (reachs) in the state A is a sphere that is equidistant from the elbow (the outer circle in FIG. 4). The range in which the fingertip position at C reaches (is reached) is a sphere that is equidistant from the elbow (inner circle in FIG. 4). That is, a virtual operation surface may be disposed between the outer sphere and the inner sphere.

図5乃至図9は、手首固定で、仮想操作面を操作できる範囲を示す図である。ユーザがタッチできる仮想操作面の向きは、仮想操作面の下部が同一の場所とした場合、図5のA面から図6のB面を経て図7のC面まで前方に傾けた状態まで操作することができる。逆に後方に傾けた場合、図5のA面から図8のD面を経て図9のE面まで傾けた状態まで操作することができる。C面の場合は手を曲げることにより操作することができる。後方に傾けた場合は、手を前方に傾ける方法に加え後方に傾けた側でもタッチすることができる。つまり、肘から手首までの距離より離れた位置で、仮想操作面の向きが肘に対して反対側の方向(C面)からユーザ方向(A面)を通って肘の方向(E面)までの範囲である。   5 to 9 are diagrams showing a range in which the virtual operation surface can be operated with the wrist fixed. The direction of the virtual operation surface that can be touched by the user is operated from the A plane in FIG. 5 to the C plane in FIG. 7 through the B plane in FIG. 6 through the B plane in FIG. can do. On the contrary, when tilted backward, it is possible to operate from the A plane in FIG. 5 to the E plane in FIG. 9 through the D plane in FIG. 8. In the case of the C plane, it can be operated by bending the hand. When tilted backward, in addition to the method of tilting the hand forward, it is possible to touch the side tilted backward. That is, at a position away from the distance from the elbow to the wrist, the direction of the virtual operation surface is the direction opposite to the elbow (C surface) from the user direction (A surface) to the elbow direction (E surface). Range.

仮想操作面の下部が同一の場所として説明したが、必ずしも同一の場所とする必要は無い。2つの球面の間であれば、どの位置にどの向きに配置してもよい。   Although the lower part of the virtual operation surface has been described as the same place, it is not always necessary to have the same place. As long as it is between two spherical surfaces, it may be arranged at any position and in any orientation.

また、肘から真上方向に仮想操作面の下部となるように説明したが、手をあまり上げなくて済むように、また、仮想操作面が見やすい向きに設置されるように説明位置より前方で下方として、仮想操作面の法線方向をユーザの向きとするほうが望ましい。   In addition, the explanation has been made so that the virtual operation surface is positioned directly below the elbow, but the virtual operation surface is placed in front of the explanation position so that the hand does not need to be raised so that the virtual operation surface can be easily viewed. It is desirable that the normal direction of the virtual operation surface is the user's direction as the downward direction.

また、実際には肘の位置は完全に固定される必要はなく、仮想操作面の向きや位置や大きさはもっと広い範囲で設定することもできる。   In practice, the position of the elbow does not need to be completely fixed, and the orientation, position, and size of the virtual operation surface can be set in a wider range.

また、ヘッドマウントディスプレイのように3次元表示機器11が操作する手より手前にある場合には、手のひらを上側にして、仮想操作面が裏側になり、範囲は同様となる。手で触った領域を手前にずらして表示してもよいし、表示しないようにしてもよい。ステレオカメラを装着した場合、左右の目の直前にヘッドマウントディスプレイをそれぞれ配置しても、実際の眼の位置とは少しずれるので、深度センサなどにより距離情報を取得して、映像を目で見える位置に補正するのが好適である。ヘッドマウントディスプレイでは目の位置は固定されるが、その中に目の位置を取得できるステレオカメラを装着し、装着ずれを補正させてより正確に表示するのが好適である。     When the 3D display device 11 is in front of the hand operated like a head-mounted display, the virtual operation surface is on the back side with the palm up, and the range is the same. The area touched by the hand may be shifted to the front or may not be displayed. When a stereo camera is installed, even if a head-mounted display is placed immediately in front of the left and right eyes, the actual eye position is slightly shifted, so distance information can be obtained with a depth sensor, etc. It is preferable to correct the position. In the head-mounted display, the position of the eyes is fixed, but it is preferable to display a more accurate display by mounting a stereo camera capable of acquiring the position of the eyes and correcting the mounting displacement.

<仮想操作面を平面としない場合>
次に、仮想操作面を平面としない場合について説明する。図10は、球面的な仮想操作面の配置例を示す図である。図11は、面の向きがユーザの方向となる仮想操作面の配置例を示す図である。
<When the virtual operation surface is not a plane>
Next, a case where the virtual operation surface is not a plane will be described. FIG. 10 is a diagram illustrating an arrangement example of a spherical virtual operation surface. FIG. 11 is a diagram illustrating an arrangement example of the virtual operation surface in which the direction of the surface is the direction of the user.

肘を固定して手の稼動範囲内に平面を設置すると、2つの球面の間に配置する必要があるので配置可能範囲が狭くなる。そこで、仮想操作面を平面とはせず、手の稼動範囲内の球面上に配置してもよい。そうすることにより、肘を動かさなくても広範囲に仮想操作面を設置できる。例えば、図4での外側の球面の少し内側に、仮想操作面を球面的に配置する。見え方は例えば図10のように、ある範囲で区切った球面が見えるように配置となる。その球面上にボタンやアイコンを配置すればよい。   When the elbow is fixed and a plane is set within the operating range of the hand, it is necessary to arrange the plane between the two spherical surfaces, so that the arrangement range is narrowed. Therefore, the virtual operation surface may not be a flat surface but may be arranged on a spherical surface within the operating range of the hand. By doing so, the virtual operation surface can be installed over a wide range without moving the elbow. For example, the virtual operation surface is arranged spherically slightly inside the outer spherical surface in FIG. For example, as shown in FIG. 10, the arrangement is such that a spherical surface divided within a certain range can be seen. A button or icon may be placed on the spherical surface.

また、図11のように、面の法線方向がユーザの方向になるように、仮想操作面を配置してもよい。そうすることにより、球面上に面を配置するより押しやすくなる。また、より押しやすいように、仮想操作面をユーザ方向から少し上の方向に向けてもよい。   Further, as shown in FIG. 11, the virtual operation surface may be arranged so that the normal direction of the surface becomes the direction of the user. By doing so, it becomes easier to push than arranging the surface on the spherical surface. Further, the virtual operation surface may be directed slightly upward from the user direction so as to be easier to press.

仮想操作面を2つの球面の間に設置すればよいので、上記の配置や形にこだわらず仮想操作面を曲げて配置してもよい。また、仮想操作面ではなく立体物を配置してもよい。例えば、四角い立方体や球のような表示物を配置し、触る面により操作内容を変えてもよい。また、触った領域と奥行き分、仮想表示が凹んだ位置に表示させるようにし、より触っていることを目で感じさせてもよい。   Since the virtual operation surface may be installed between the two spherical surfaces, the virtual operation surface may be bent and arranged regardless of the above arrangement and shape. Moreover, you may arrange | position a solid object instead of a virtual operation surface. For example, a display object such as a square cube or a sphere may be arranged, and the operation content may be changed depending on the touch surface. Further, the virtual display may be displayed at a position where the virtual display is recessed by the touched area and depth, and the touch may be felt with the eyes.

“肘の位置”から操作しやすい範囲は上記に示したが、“肘の位置”に対して手首までの基準となる基準方向を予め決めておき、ユーザによって異なる肘から手首までの距離に応じて、その基準方向での操作しやすい仮想操作面の位置や向きを特定する。例えば、図16のように、基準方向を決めたら、仮想操作面はその少し下に操作しやすい向きで配置される。   The easy-to-operate range from the “elbow position” is shown above, but the reference direction as the reference to the wrist with respect to the “elbow position” is determined in advance, and depending on the distance from the elbow to the wrist depending on the user Then, the position and orientation of the virtual operation surface that is easy to operate in the reference direction are specified. For example, as shown in FIG. 16, when the reference direction is determined, the virtual operation surface is arranged in a direction that is easy to operate slightly below.

操作中は“肘の位置”は多少なりとも動くので、最初に“肘”で特定した位置を基準として仮想操作面の位置を固定しておいても良いし、“肘の位置”に連動させても良い。また、最初に“肘の位置”を特定した際の肩など動かない体の位置を基準として、仮想操作面の位置を連動させて移動させてもよい。基準方向は予め決めておいても良いが、手を上げて指を人差し指だけ伸ばした状態で操作受付開始とした場合、そのときの手首までの方向を基準方向としても良い。   Since the “elbow position” moves somewhat during operation, the position of the virtual operation surface may be fixed based on the position specified by the “elbow” first, or linked to the “elbow position”. May be. Further, the position of the virtual operation surface may be moved in conjunction with the position of the body that does not move, such as the shoulder when the “elbow position” is first identified. The reference direction may be determined in advance, but when the operation reception is started with the hand raised and the finger extended only by the index finger, the direction to the wrist at that time may be set as the reference direction.

仮想操作面は基準方向に対して相対的な位置と向きとなるように予め設定しておいても良い。人差し指だけ伸ばしたときの手首から指先の角度によっての相対的な位置と向きとなるようにしても良い。このとき相対関係はあらかじめ設定しておく。   The virtual operation surface may be set in advance so as to have a relative position and orientation with respect to the reference direction. You may make it become the relative position and direction by the angle of a fingertip from a wrist when only an index finger is extended. At this time, the relative relationship is set in advance.

また、予め仮想操作面位置を設定しておいて、その位置に合うようにユーザが移動しても良い。例えば、肘当てを用意しておいて、そこに肘を当てたときの仮想操作面となるように位置を設定する。   Further, a virtual operation surface position may be set in advance, and the user may move to match that position. For example, an elbow rest is prepared, and the position is set so as to be a virtual operation surface when the elbow is placed on the elbow rest.

視聴位置判定部16は、取得部12で取得した距離画像に基づいて、ユーザの視聴位置を特定するものである。視聴位置は、ユーザの目の3次元位置データで特定する。   The viewing position determination unit 16 specifies the viewing position of the user based on the distance image acquired by the acquisition unit 12. The viewing position is specified by the three-dimensional position data of the user's eyes.

作成部17は、視聴位置と3次元表示機器11と仮想操作面の位置の関係に基づいて、3次元表示機器11を利用して仮想操作面の表示を作成する。例えば2視差の表示装置の場合、それぞれの目に対して仮想操作面の位置が決められた位置になるように、取得部12に対しての3次元表示機器11の位置と向きの関係から表示を計算し作成する。取得部12が3次元表示機器11に取り付けられている場合は、取得部12と3次元表示機器11の相対関係は固定されるのであらかじめ3次元表示機器11の位置と向きの相対関係を計算しておく。取得部12が3次元表示機器11に取り付けられていない場合は、取得部12によって3次元表示機器11の位置を特定するなどにより3次元表示機器11の相対関係を計算する。   The creation unit 17 creates a display of the virtual operation surface using the 3D display device 11 based on the relationship between the viewing position, the position of the 3D display device 11 and the virtual operation surface. For example, in the case of a two-parallax display device, display is performed from the relationship between the position and orientation of the 3D display device 11 with respect to the acquisition unit 12 so that the position of the virtual operation surface is determined for each eye. Calculate and create When the acquisition unit 12 is attached to the 3D display device 11, the relative relationship between the acquisition unit 12 and the 3D display device 11 is fixed, so the relative relationship between the position and orientation of the 3D display device 11 is calculated in advance. Keep it. When the acquisition unit 12 is not attached to the 3D display device 11, the relative relationship of the 3D display device 11 is calculated by specifying the position of the 3D display device 11 by the acquisition unit 12.

指示部18は、仮想操作面と操作位置により行った操作を特定し操作機器200に操作指示を伝えるものである。仮想操作面と操作位置により行った操作を特定し、操作機器200に操作指示を伝える。例えば仮想操作面に一時停止のマークを表示させておき、手がそのマークを押したら一時停止を操作機器に伝えて一時停止させる。このとき、少しのずれを許容するために、すばやく触る方向に指が動いた場合には、多少遠くても触ったことにしてもよい。   The instruction unit 18 specifies an operation performed based on the virtual operation surface and the operation position, and transmits an operation instruction to the operation device 200. The operation performed by the virtual operation surface and the operation position is specified, and an operation instruction is transmitted to the operation device 200. For example, a pause mark is displayed on the virtual operation surface, and when the hand presses the mark, the pause is transmitted to the operating device and paused. At this time, in order to allow a slight deviation, when the finger moves in the direction of quick touch, it may be touched even if it is a little far away.

次に、以上のように構成された操作装置100による基本的な処理の流れについて説明する。   Next, a basic processing flow by the operation device 100 configured as described above will be described.

図12は、操作装置100における基本的な処理の流れを示すフローチャートである。   FIG. 12 is a flowchart showing a basic processing flow in the controller device 100.

まず、取得部12を構成する深度センサやステレオカメラによって、物体の奥行きを表す距離画像を取得する(ステップS1201)。操作装置100を操作するユーザの体の一部を捉える。   First, a distance image representing the depth of an object is acquired by a depth sensor or a stereo camera constituting the acquisition unit 12 (step S1201). A part of the body of the user who operates the operation device 100 is captured.

次に、深度センサやステレオカメラで得たデータに基づいて、基準位置を取得する(ステップS1202)。例えば、基準位置は、ユーザの“肘の位置”である。   Next, a reference position is acquired based on data obtained with a depth sensor or a stereo camera (step S1202). For example, the reference position is the “elbow position” of the user.

次いで、操作装置100において表示させる仮想操作面の配置位置を、“肘の位置”を基準として計算する(ステップS1203)。配置位置の計算処理の流れは後述する。   Next, the placement position of the virtual operation surface to be displayed on the controller device 100 is calculated based on the “elbow position” (step S1203). The flow of calculation processing of the arrangement position will be described later.

次いで、ユーザによる仮想操作面上の操作位置を判定する(ステップS1204)。例えば、仮想操作面上のユーザの手の位置が操作位置となる。   Next, the operation position on the virtual operation surface by the user is determined (step S1204). For example, the position of the user's hand on the virtual operation surface is the operation position.

次に、ユーザによる操作機器200に対する操作の有無を判定する(ステップS1205)。   Next, it is determined whether or not the user has operated the operation device 200 (step S1205).

操作していると判定した場合(ステップS1205でYes)には、操作機器200に対して、操作内容を指示(ステップS1206)した後、ステップS1207へ移行する。一方、操作していないと判定した場合(ステップS1205でNo)には、直ちにステップS1207へ移行する。   If it is determined that the user is operating (Yes in step S1205), the operation content is instructed to the operating device 200 (step S1206), and the process proceeds to step S1207. On the other hand, if it is determined that no operation has been performed (No in step S1205), the process immediately proceeds to step S1207.

ステップS1207では、深度センサやステレオカメラで得たデータに基づいて、ユーザが仮想操作面を視聴している位置の判定を行う。   In step S1207, the position where the user is viewing the virtual operation surface is determined based on the data obtained by the depth sensor or the stereo camera.

次いで、作成部17で、表示する仮想操作面の生成を行う(ステップS1208)。   Next, the creation unit 17 generates a virtual operation surface to be displayed (step S1208).

次に、作成部17で生成した仮想操作面を、3次元表示機器11に送って表示させる(ステップS1209)。3次元表示機器11は、ユーザから見て仮想操作面があたかも設定あるいは調整された位置に存在するかのように見えるように仮想操作面を表示する。これにより、ユーザは認識した立体映像である仮想操作面に対し、手や指を用いて操作を実行することができる。   Next, the virtual operation surface generated by the creation unit 17 is sent to the three-dimensional display device 11 to be displayed (step S1209). The three-dimensional display device 11 displays the virtual operation surface so that it looks as if the virtual operation surface is present at the set or adjusted position when viewed from the user. Accordingly, the user can perform an operation on the virtual operation surface, which is a recognized stereoscopic image, using a hand or a finger.

上記に限られず、操作装置100における操作の受付開始は、ユーザの音声やジェスチャーによって決定してもよい。受付を開始後に仮想操作面を表示しても良く、音で受付開始を知らせても良い。   The present invention is not limited to the above, and the start of accepting operations on the controller device 100 may be determined by the user's voice or gesture. The virtual operation surface may be displayed after the reception is started, or the reception start may be notified by sound.

一方、操作装置100における操作の終了は、ユーザが指をたたんだり、手を下ろすことを契機としても良い。さらに、操作受付は指先だけに限り、指先以外が触れた場合には、操作終了としても良い。   On the other hand, the end of the operation in the controller device 100 may be triggered by the user's finger slid or hand down. Furthermore, the operation reception is limited to the fingertip only, and the operation may be ended when a finger other than the fingertip touches.

図13は、計算部15における仮想操作面の配置位置を計算する処理の流れを示すフローチャートである。   FIG. 13 is a flowchart showing a flow of processing for calculating the placement position of the virtual operation surface in the calculation unit 15.

まず、基準位置、例えば“肘の位置”から仮想操作面までの距離を、“肘の位置”から操作位置、例えば“手”までの距離によって特定する(ステップS1301)。   First, the distance from the reference position, for example, “elbow position”, to the virtual operation surface is specified by the distance from the “elbow position” to the operation position, for example, “hand” (step S1301).

次に、仮想操作面の向きや配置位置を、基準位置、例えば“肘の位置”を起点として、基準方向、例えば“肘から手の方向”になるように回転処理する(ステップS1302)。   Next, the orientation and the arrangement position of the virtual operation surface are rotated so as to become a reference direction, for example, “the direction from the elbow to the hand”, starting from the reference position, for example, “elbow position” (step S1302).

次いで、仮想操作面の向きや位置を、基準方向より少し下に微調整する(ステップS1303)。仮想操作面を立体表示する位置は、ユーザの操作感として実際に仮想操作面が形成される位置とは若干異なる位置に表示させる方が好適な場合がある。仮想操作面の形成位置と仮想操作面画像の立体表示位置とは必ずしも一致する必要はない。   Next, the orientation and position of the virtual operation surface are finely adjusted slightly below the reference direction (step S1303). In some cases, it is preferable to display the virtual operation surface at a position slightly different from the position where the virtual operation surface is actually formed as the user's operational feeling. The formation position of the virtual operation surface and the stereoscopic display position of the virtual operation surface image do not necessarily match.

以上のようにして、仮想操作面の配置位置が計算される。   As described above, the placement position of the virtual operation surface is calculated.

(変形例)
本実施形態については、以下のような変形例が可能である。
(Modification)
About this embodiment, the following modifications are possible.

<仮想操作面に関して>
仮想操作面はアイコンなどを表示するための土台であるため、面上に操作するアイコンやボタンなどを配置すればよく、面を表示しておく必要は無い。
<Virtual operation surface>
Since the virtual operation surface is a base for displaying icons and the like, it is only necessary to arrange icons and buttons to be operated on the surface, and it is not necessary to display the surface.

図14は、図4に示す2重球面内に仮想操作面を複数用意した一例を示す図である。このような場合には、指の高さに応じて階層を切り替えてもよい。その場合、タッチしたと認識するのは、指を一度すばやく下げ上げすればよい。または、仮想操作面間に隙間を設け、その隙間を手が移動してタッチしないようにしてもよい。階層化した仮想操作面により、操作可能なアイコンを増やすことができる。肘が固定された状態で操作面の面積を小さくせざるを得ない場合に、有効である。   FIG. 14 is a diagram showing an example in which a plurality of virtual operation surfaces are prepared in the double spherical surface shown in FIG. In such a case, the hierarchy may be switched according to the height of the finger. In that case, it is only necessary to quickly raise the finger once to recognize the touch. Alternatively, a gap may be provided between the virtual operation surfaces so that the hand does not move and touch the gap. The number of operable icons can be increased by the hierarchical virtual operation surface. This is effective when the area of the operation surface must be reduced with the elbow fixed.

尚、ユーザにわかりやすくするため、現在操作対象としている階層の表示を濃くし、違う階層は薄く表示するのが好適である。   In order to make it easy for the user to understand, it is preferable that the display of the layer currently being operated is darkened and the different layers are displayed lightly.

図15は、図4に示す2重球面内に、図10のような仮想操作面上に仮想立体アイコンを立体的に表示して操作対象とした一例を示す図である。   FIG. 15 is a diagram illustrating an example in which a virtual solid icon is stereoscopically displayed on the virtual operation surface as illustrated in FIG. 10 as an operation target in the double spherical surface illustrated in FIG.

その場合、タッチしたとするのは、指を一度すばやく下げ上げすればよい。または、立体アイコンの間の隙間を手が移動してタッチしないようにできるようにしてもよい。そうすることにより、肘が固定された状態でも選択できるアイコンを増やすことができる。また、常に操作できるアイコンを表示し続けることができるため、選択したいアイコンが選びやすくなる。また、立体アイコンは四角にこだわらず、丸や三角や、例えば電話の場合電話の形など、意味に合わせた立体の形にしてもよい。   In that case, it is only necessary to quickly raise the finger once to touch. Or you may enable it to prevent a hand moving and touching the clearance gap between solid icons. By doing so, the number of icons that can be selected even when the elbow is fixed can be increased. In addition, since icons that can be operated at all times can be continuously displayed, it is easy to select an icon to be selected. In addition, the solid icon is not limited to a square, but may be a circle or triangle, or a solid shape suitable for the meaning, such as a telephone shape in the case of a telephone.

<基準位置について>
“肘の位置”を固定された基準として説明したが、人の関節ならどこでもよく、例えば、手首基準、指の関節基準、肩基準などとしてもよい。また、操作を足で行う場合には、腰基準、足の付け根基準、ひざ基準、足首基準、足の指の関節基準としてもよい。また、額や舌で操作する場合には、首基準とすればよい。操作できる範囲である仮想操作面は、基準とした関節から先の関節が曲がる範囲内での配置となる。
<About the reference position>
Although the “elbow position” has been described as a fixed reference, it may be any joint of a person, for example, a wrist reference, a finger joint reference, a shoulder reference, or the like. When the operation is performed with the foot, the waist reference, the base of the foot, the knee reference, the ankle reference, and the joint reference of the toes may be used. Moreover, what is necessary is just to set it as a neck reference | standard when operating with a forehead or a tongue. The virtual operation surface, which is an operable range, is arranged within a range in which the previous joint bends from the reference joint.

基準とした“関節の位置”が移動したことに連動して、仮想操作面の位置をずらしてもよい。そのとき、その基準の関節より体側の関節の位置や体の向きによって稼動範囲が変わるため、それを考慮して仮想操作面の位置や向きなどを変更してもよい。例えば、肘が体にくっついているときは、手は体の外側に移動しづらいので仮想操作面は内側にする。そして肘が体から離れているときは、手は体の外側に移動しやすくなるので仮想操作面は外側にする。   The position of the virtual operation surface may be shifted in conjunction with the movement of the “joint position” as a reference. At this time, since the operating range changes depending on the position of the joint on the body side and the orientation of the body relative to the reference joint, the position and orientation of the virtual operation surface may be changed in consideration thereof. For example, when the elbow is attached to the body, the hand is difficult to move to the outside of the body, so the virtual operation surface is set to the inside. When the elbow is away from the body, the hand easily moves to the outside of the body, so the virtual operation surface is on the outside.

基準とした関節が、3次元表示機器の外側に離れすぎた場合、仮想操作面が3次元表示機器の範囲よりはみ出し表示できなくなる。その場合にも、表示されない仮想操作面があるとして操作は受け付けるようにしてもよい。   When the reference joint is too far away from the 3D display device, the virtual operation surface cannot be displayed beyond the range of the 3D display device. Even in this case, the operation may be accepted on the assumption that there is a virtual operation surface that is not displayed.

関節基準ではなく、肘当てのように何かに体の一部を当てた位置を基準としてもよい。他に、両手のひらの付け根を両ひざの上に置き、その手のひらの位置を基準として、キーボードやテンキーやボタンの仮想操作表示をしてもよい。その場合、キーボードひとつとせず、左右に分割して表示してもよい。また、車を運転中の場合手のひらの付け根をハンドルの上に置いたときでもよい。その場合、3次元表示機器はHUD(ヘッドアップディスプレイ)でもよい。また、ハンドルは円状に回転するので、位置だけではなく仮想操作面をそれに合わせて回転させても良い。操作できる範囲である仮想操作面は、基準とした接点から次の関節までの自由度と、その関節から先の関節が曲がる範囲での配置となる。   Instead of the joint reference, a position where a part of the body is applied to something like an elbow rest may be used as a reference. In addition, the base of both palms may be placed on both knees, and the virtual operation display of the keyboard, numeric keys, and buttons may be displayed based on the position of the palm. In that case, the display may be divided into left and right instead of a single keyboard. Further, when the car is being driven, the palm may be placed on the handle. In that case, the 3D display device may be a HUD (head-up display). Further, since the handle rotates in a circular shape, not only the position but also the virtual operation surface may be rotated in accordance therewith. The virtual operation surface, which is an operable range, has a degree of freedom from the reference contact point to the next joint, and an arrangement in a range where the previous joint bends.

手首の関節を基準とした場合に、肘の位置からの表示面の向きが変わらないように、手首の位置に連動させて、仮想操作面の位置を移動に加え、回転して表示してもよい。   When the wrist joint is used as a reference, the position of the virtual operation surface is linked to the wrist position so that the orientation of the display surface from the elbow position does not change. Good.

<3次元表示機器の配置>
仮想操作面を表示するためには、3次元表示機器を図3のように縦に長くしておくか、もしくは図17のように、通常の表示機器の下方に、仮想操作面表示用の3次元表示機器11を別途、配置してもよい。家庭などで仮想操作面表示をする場合には、図18のように、テレビなどの表示機器の手前の下に、床で真上向きや視聴者に見やすいように斜めに設置し、仮想操作面を斜めに設置して、手をあまり上げずに操作できるようにしてもよい。
<Arrangement of 3D display device>
In order to display the virtual operation surface, the three-dimensional display device is lengthened vertically as shown in FIG. 3, or the virtual operation surface display 3 is displayed below the normal display device as shown in FIG. The dimension display device 11 may be separately arranged. When the virtual operation screen is displayed at home or the like, as shown in FIG. 18, the virtual operation screen is placed under the front of a display device such as a TV or the like so that it faces upward on the floor or is easy to see for viewers. It may be installed at an angle so that it can be operated without raising its hand.

<操作の受付>
ユーザが仮想操作面を見ている場合のみ、操作を受け付けるようにして誤動作を防止するのが好適である。
<Accepting operations>
It is preferable to prevent the malfunction by accepting the operation only when the user is looking at the virtual operation surface.

<タッチの感触について>
空気流を発射する空気銃を、仮想操作面の近傍に設置し、仮想操作面を触ったことがユーザに判るようにするのが好適である。
<About touch feeling>
It is preferable to install an air gun that emits an air flow in the vicinity of the virtual operation surface so that the user can know that the virtual operation surface has been touched.

仮想操作面に触ったことを認識して、空気銃から手に空気流を当てる。一つの空気銃で指の位置に空気銃の向きを追従させてもよいし、3次元表示機器面に透明の空気銃を敷き詰めて触った領域のみ空気を発射させてもよい。空気銃を敷き詰める場合は、3次元表示機器などの面に、配置し平行に照射してもよい。   Recognizing that the virtual operation surface has been touched, airflow is applied to the hand from the air gun. One air gun may cause the direction of the air gun to follow the position of the finger, or a transparent air gun may be spread over the surface of the three-dimensional display device and air may be fired only in the touched area. When air guns are spread, they may be arranged on a surface of a three-dimensional display device and irradiated in parallel.

図17は、空気銃の配置の一例を示す図である。図17に示すように、表示機器と仮想操作面表示用の3次元表示機器との間など横長の隙間に、線に配置し縦方向の放射線状に照射してもよい。また、点に配置し点の放射線状に照射してもよい。また、図19のように、ヘッドマウントディスプレイなどでは空気銃を機器の裏側に、面にたくさん敷き詰めて配置しておいて、仮想操作面に触った領域のみ空気を発射させてもよい。それぞれの空気銃に対して指を追従させて、より近い位置の空気銃から発射させてもよい。また、近いほど空気銃の強度を大きくしてもよい。また、ボタンのある領域に指が来た場合、空気銃を弱く照射し、ボタンが押されたら空気銃を強く照射して、ボタンを押している感覚をさせてもよい。また、空気銃が指の温度と近くなるようにヒーターを使って温度調整をしてもよい。その場合、指の温度を読み取っておいて、その温度にしたがって、発射する空気の温度を変えてもよい。   FIG. 17 is a diagram illustrating an example of the arrangement of air guns. As shown in FIG. 17, a radiation may be irradiated in the vertical direction in a line in a horizontally long gap such as between a display device and a virtual operation surface display three-dimensional display device. Moreover, it may arrange | position to a point and may irradiate to the radial form of a point. Further, as shown in FIG. 19, in a head mounted display or the like, air guns may be arranged on the back side of the device with a large number of air guns disposed on the surface, and air may be emitted only in an area touching the virtual operation surface. A finger may be caused to follow each of the air guns, and may be fired from a closer air gun. Moreover, you may enlarge the intensity | strength of an air gun, so that it is near. Further, when the finger comes to the area where the button is located, the air gun may be weakly irradiated, and when the button is pressed, the air gun may be strongly irradiated to feel the button being pressed. The temperature may be adjusted using a heater so that the air gun is close to the temperature of the finger. In that case, the temperature of the finger may be read and the temperature of the air to be fired may be changed according to the temperature.

本実施形態によれば、手の揺らぎが起きにくい状態で操作することが可能となるので、車など乗り物の振動による手の動きや手振れを軽減するもので操作性が著しく向上する。また、肘をあまり動かさなくてすむため、疲れを軽減することもできる。   According to the present embodiment, since it is possible to operate in a state in which hand shaking is unlikely to occur, operability is remarkably improved by reducing hand movement and hand shake due to vibration of a vehicle such as a car. In addition, fatigue can be reduced because the elbows do not need to be moved much.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

100・・・操作装置
11・・・3次元表示機器
12・・・取得部
13・・・操作位置判定部
14・・・基準位置取得部
15・・・計算部
16・・・視聴位置判定部
17・・・作成部
18・・・指示部
200・・・操作機器
DESCRIPTION OF SYMBOLS 100 ... Operation apparatus 11 ... Three-dimensional display apparatus 12 ... Acquisition part 13 ... Operation position determination part 14 ... Reference position acquisition part 15 ... Calculation part 16 ... Viewing position determination part 17 ... Creation unit 18 ... Instruction unit 200 ... Operating device

Claims (16)

ユーザに対向して配置され、ユーザが操作機器に対して命令や情報を入力するための仮想操作面を立体的に表示する3次元表示機器と、
ユーザに対向して配置され、ユーザの距離画像を取得する取得部と、
前記取得部で取得した距離画像データに基づいて、前記仮想操作面を操作するユーザの操作位置を判定する操作位置判定部と、
前記取得部で取得した距離画像データに基づいて、前記仮想操作面を配置する際に基準となる基準位置を取得する基準位置取得部と、
前記基準位置取得部で取得した基準位置の位置データに基づいて、前記仮想操作面の配置位置を計算する計算部と、
前記取得部で取得した距離画像データに基づいて、ユーザの視聴位置を判定する視聴位置判定部と、
前記視聴位置の位置データ、前記3次元表示機器の位置データおよび前記仮想操作面の位置データに基づいて、立体表示する前記仮想操作面の表示データを作成し、前記3次元表示機器に送出する作成部と、
前記操作位置データおよび前記仮想操作面の位置データに基づいて、前記操作機器に対する操作内容を判定して前記操作機器に指示する指示部とを備える操作装置。
A three-dimensional display device that is arranged facing the user and displays a three-dimensional virtual operation surface for the user to input commands and information to the operation device;
An acquisition unit arranged to face the user and acquiring a distance image of the user;
An operation position determination unit that determines an operation position of a user operating the virtual operation surface based on the distance image data acquired by the acquisition unit;
Based on the distance image data acquired by the acquisition unit, a reference position acquisition unit that acquires a reference position serving as a reference when placing the virtual operation surface;
Based on the position data of the reference position acquired by the reference position acquisition unit, a calculation unit that calculates the placement position of the virtual operation surface;
A viewing position determination unit that determines the viewing position of the user based on the distance image data acquired by the acquisition unit;
Creation of display data of the virtual operation surface to be stereoscopically displayed based on the position data of the viewing position, the position data of the 3D display device, and the position data of the virtual operation surface, and sending the display data to the 3D display device And
An operating device comprising: an instruction unit that determines an operation content for the operation device based on the operation position data and the position data of the virtual operation surface and instructs the operation device.
前記3次元表示機器は、ヘッドアップディスプレイである請求項1記載の操作装置。   The operating device according to claim 1, wherein the three-dimensional display device is a head-up display. 前記取得部は、ステレオカメラである請求項1記載の操作装置。   The operating device according to claim 1, wherein the acquisition unit is a stereo camera. 前記取得部は、深度センサである請求項1記載の操作装置。   The operating device according to claim 1, wherein the acquisition unit is a depth sensor. 前記操作位置判定部は、ユーザの手の3次元位置を操作位置と判定する請求項1記載の操作装置。   The operation device according to claim 1, wherein the operation position determination unit determines a three-dimensional position of a user's hand as an operation position. 前記基準位置は、ユーザの肘の位置あるいは腕の位置とする請求項1乃至請求項5のいずれか1項に記載の操作装置。   The operating device according to claim 1, wherein the reference position is a position of a user's elbow or an arm. 前記基準位置は、深度センサあるいは圧力センサで取得したデータを利用して特定する請求項1乃至請求項5のいずれか1項に記載の操作装置。   The operating device according to any one of claims 1 to 5, wherein the reference position is specified by using data acquired by a depth sensor or a pressure sensor. 前記肘の位置の特定は、ユーザの着席近傍に設けた肘当てに圧力センサを設置し、最も圧力が高い箇所とする請求項6記載の操作装置。   The operation device according to claim 6, wherein the position of the elbow is specified by installing a pressure sensor in an elbow rest provided in the vicinity of the user's seating and setting the position at the highest pressure. 前記肘の位置の特定は、予め手首から肘までの長さを決め、手首の位置から指のある方の反対側に伸びている方向を、前記長さで延ばした位置とする請求項6記載の操作装置。   7. The position of the elbow is specified in advance by determining the length from the wrist to the elbow and extending the direction extending from the wrist position to the opposite side of the finger by the length. Operating device. 前記視聴位置判定部は、ユーザの目の3次元位置を視聴位置と判定する請求項1乃至請求項4のいずれか1項に記載の操作装置。   The operating device according to any one of claims 1 to 4, wherein the viewing position determination unit determines a three-dimensional position of a user's eyes as a viewing position. 前記仮想操作面は、平面である請求項1乃至請求項7のいずれか1項に記載の操作装置。   The operation device according to claim 1, wherein the virtual operation surface is a flat surface. 前記仮想操作面は、曲面である請求項1乃至請求項7のいずれか1項に記載の操作装置。   The operation device according to claim 1, wherein the virtual operation surface is a curved surface. 前記仮想操作面の位置や向きは、肘の位置に対して手首までの基準となる基準方向を予め決め、肘から手首までの距離に応じて、前記基準方向で位置や向きを特定する請求項6記載の操作装置。   The position and orientation of the virtual operation surface is determined in advance as a reference direction from the elbow position to the wrist, and the position and orientation are specified in the reference direction according to the distance from the elbow to the wrist. 6. The operating device according to 6. 前記基準方向は、予め決定せず、手を上げて指を人差し指だけ伸ばした状態で操作受付開始とした場合、その際の手首までの方向と決定する請求項13記載の操作装置。   14. The operating device according to claim 13, wherein the reference direction is not determined in advance, and is determined to be the direction to the wrist at that time when the operation reception is started with the hand raised and the index finger extended. 前記仮想操作面は、前記基準方向に対して相対的な位置と向きとなるように予め設定する請求項13記載の操作装置。   The operation device according to claim 13, wherein the virtual operation surface is set in advance so as to have a relative position and orientation with respect to the reference direction. 空気流を発射する空気銃を前記仮想操作面の近傍に設置し、ユーザが前記仮想操作面を触れたことを認識した際、前記空気銃から空気流を放出する請求項1乃至請求項15のいずれか1項に記載の操作装置。   The air gun for emitting an air flow is installed in the vicinity of the virtual operation surface, and when the user recognizes that the virtual operation surface is touched, the air flow is discharged from the air gun. The operating device according to any one of the above.
JP2012201394A 2012-09-13 2012-09-13 Operation device Pending JP2014056462A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012201394A JP2014056462A (en) 2012-09-13 2012-09-13 Operation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012201394A JP2014056462A (en) 2012-09-13 2012-09-13 Operation device

Publications (1)

Publication Number Publication Date
JP2014056462A true JP2014056462A (en) 2014-03-27

Family

ID=50613716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012201394A Pending JP2014056462A (en) 2012-09-13 2012-09-13 Operation device

Country Status (1)

Country Link
JP (1) JP2014056462A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016031761A (en) * 2014-07-25 2016-03-07 裕行 池田 Spectacle type terminal
JP2016091192A (en) * 2014-10-31 2016-05-23 パイオニア株式会社 Virtual image display apparatus, control method, program, and storage medium
JP2016110177A (en) * 2014-12-02 2016-06-20 株式会社トプコン Three-dimensional input device and input system
JP2016118947A (en) * 2014-12-22 2016-06-30 日本ユニシス株式会社 Spatial handwriting input system using angle-adjustable virtual plane
WO2016208216A1 (en) * 2015-06-22 2016-12-29 株式会社村田製作所 User interface device and distance sensor
WO2017188098A1 (en) * 2016-04-27 2017-11-02 カルソニックカンセイ株式会社 Vehicle-mounted information processing system
KR20190025934A (en) * 2016-07-22 2019-03-12 구글 엘엘씨 Detection of User Motion Range for Virtual Reality User Interface
JP2019123503A (en) * 2019-02-25 2019-07-25 パイオニア株式会社 Virtual image display apparatus, control method, program, and storage medium
JP2020160875A (en) * 2019-03-27 2020-10-01 株式会社Subaru Contactless operation device of vehicle, and vehicle
JP2021014262A (en) * 2020-10-26 2021-02-12 パイオニア株式会社 Virtual image display apparatus, control method, program, and storage medium
JP7080448B1 (en) 2021-03-08 2022-06-06 裕行 池田 Terminal device
US11429200B2 (en) 2020-10-13 2022-08-30 Hiroyuki Ikeda Glasses-type terminal

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005025116A (en) * 2003-07-03 2005-01-27 Sony Corp Information presenting device and information presenting method, information presentation system, and computer program
JP2011175617A (en) * 2010-01-29 2011-09-08 Shimane Prefecture Image recognition apparatus, operation determination method, and program
JP2011212270A (en) * 2010-03-31 2011-10-27 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2011227672A (en) * 2010-04-19 2011-11-10 Sharp Corp Input device, information processor and information processing system
WO2012039140A1 (en) * 2010-09-22 2012-03-29 島根県 Operation input apparatus, operation input method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005025116A (en) * 2003-07-03 2005-01-27 Sony Corp Information presenting device and information presenting method, information presentation system, and computer program
JP2011175617A (en) * 2010-01-29 2011-09-08 Shimane Prefecture Image recognition apparatus, operation determination method, and program
JP2011212270A (en) * 2010-03-31 2011-10-27 Namco Bandai Games Inc Program, information storage medium and image generation system
JP2011227672A (en) * 2010-04-19 2011-11-10 Sharp Corp Input device, information processor and information processing system
WO2012039140A1 (en) * 2010-09-22 2012-03-29 島根県 Operation input apparatus, operation input method, and program

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10585288B2 (en) 2014-07-25 2020-03-10 Hiroyuki Ikeda Computer display device mounted on eyeglasses
US10191282B2 (en) 2014-07-25 2019-01-29 Hiroyuki Ikeda Computer display device mounted on eyeglasses
JP2016031761A (en) * 2014-07-25 2016-03-07 裕行 池田 Spectacle type terminal
JP2016091192A (en) * 2014-10-31 2016-05-23 パイオニア株式会社 Virtual image display apparatus, control method, program, and storage medium
JP2016110177A (en) * 2014-12-02 2016-06-20 株式会社トプコン Three-dimensional input device and input system
JP2016118947A (en) * 2014-12-22 2016-06-30 日本ユニシス株式会社 Spatial handwriting input system using angle-adjustable virtual plane
WO2016208216A1 (en) * 2015-06-22 2016-12-29 株式会社村田製作所 User interface device and distance sensor
WO2017188098A1 (en) * 2016-04-27 2017-11-02 カルソニックカンセイ株式会社 Vehicle-mounted information processing system
KR102239855B1 (en) * 2016-07-22 2021-04-13 구글 엘엘씨 Detection of user motion range for virtual reality user interface
KR20190025934A (en) * 2016-07-22 2019-03-12 구글 엘엘씨 Detection of User Motion Range for Virtual Reality User Interface
JP2019123503A (en) * 2019-02-25 2019-07-25 パイオニア株式会社 Virtual image display apparatus, control method, program, and storage medium
JP2020160875A (en) * 2019-03-27 2020-10-01 株式会社Subaru Contactless operation device of vehicle, and vehicle
JP7304184B2 (en) 2019-03-27 2023-07-06 株式会社Subaru Non-contact operating device for vehicle and vehicle
US11429200B2 (en) 2020-10-13 2022-08-30 Hiroyuki Ikeda Glasses-type terminal
JP2021014262A (en) * 2020-10-26 2021-02-12 パイオニア株式会社 Virtual image display apparatus, control method, program, and storage medium
JP7100100B2 (en) 2020-10-26 2022-07-12 パイオニア株式会社 Virtual image display device, control method, program, and storage medium
JP7080448B1 (en) 2021-03-08 2022-06-06 裕行 池田 Terminal device
JP2022136951A (en) * 2021-03-08 2022-09-21 裕行 池田 Terminal device

Similar Documents

Publication Publication Date Title
JP2014056462A (en) Operation device
US11347311B2 (en) Systems and methods for providing haptic feedback for remote interactions
JP6702489B2 (en) Head mounted display, information processing method, and program
US10495878B2 (en) Mobile terminal and controlling method thereof
JP6480434B2 (en) System and method for direct pointing detection for interaction with digital devices
JP6116934B2 (en) Icon operation device
EP3497542A1 (en) Mediation of interaction methodologies in immersive environments
US9470894B2 (en) Head mounted display and method of controlling the same
WO2016138178A1 (en) Visual gestures for a head mounted device
US11714540B2 (en) Remote touch detection enabled by peripheral device
KR102147430B1 (en) virtual multi-touch interaction apparatus and method
US10203781B2 (en) Integrated free space and surface input device
US20200150605A1 (en) Head mounted display device
KR101708455B1 (en) Hand Float Menu System
JPWO2021059359A1 (en) Animation production system
US10664046B2 (en) Head mounted display device
JP2016126687A (en) Head-mounted display, operation reception method, and operation reception program
WO2013111280A1 (en) Display apparatus and display method
JP2012194626A (en) Display device
JP2006302029A (en) Display device control program, display device control method and display device
KR20170082924A (en) Apparatus and method for user input display using gesture
JP4757132B2 (en) Data input device
US20240103712A1 (en) Devices, Methods, and Graphical User Interfaces For Interacting with Three-Dimensional Environments
WO2023181549A1 (en) Control device, control method, and program
US11307762B2 (en) Operating user interfaces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170328