JP2014192838A - Ar gesture user interface system for portable terminal - Google Patents

Ar gesture user interface system for portable terminal Download PDF

Info

Publication number
JP2014192838A
JP2014192838A JP2013068961A JP2013068961A JP2014192838A JP 2014192838 A JP2014192838 A JP 2014192838A JP 2013068961 A JP2013068961 A JP 2013068961A JP 2013068961 A JP2013068961 A JP 2013068961A JP 2014192838 A JP2014192838 A JP 2014192838A
Authority
JP
Japan
Prior art keywords
finger
terminal
key
user interface
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013068961A
Other languages
Japanese (ja)
Other versions
JP6165485B2 (en
Inventor
Takashi Komuro
孝 小室
Masakazu Higuchi
政和 樋口
Teruho Fujii
照穂 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EXVISION Inc
Saitama University NUC
Original Assignee
EXVISION Inc
Saitama University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EXVISION Inc, Saitama University NUC filed Critical EXVISION Inc
Priority to JP2013068961A priority Critical patent/JP6165485B2/en
Publication of JP2014192838A publication Critical patent/JP2014192838A/en
Application granted granted Critical
Publication of JP6165485B2 publication Critical patent/JP6165485B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a user interface system capable of performing interlocking to control of a portable terminal or operation of an application within the terminal while feeling an actual touch of a virtual object by displaying the virtual object while overlapping with a real image photographed by a compact camera mounted on the back of the portable terminal, and operating the virtual object with a finger of the hand placed in a space in the depth of the terminal.SOLUTION: A space in the depth of a terminal T where a hand (h) is placed is photographed by a compact camera 1 mounted on the back of the terminal T, motions of a finger (f) are recognized by processing an obtained image sequence, and a virtual keyboard (k) and a recognition result are superimposed on the image sequence and displayed on a display 2 of the terminal T. Thus, an operation region becomes a wide space in the depth of the terminal T and terminal operation with higher convenience can be implemented.

Description

本発明は、携帯端末の背面に取り付けた小型カメラで撮影された実画像上に、仮想物体を重ね合わせて表示し、それを端末奥の空間に置いた手指で操作することで、携帯端末の制御や端末内のアプリケーションの動作に連動させることができるユーザインタフェースシステムに関する。   The present invention superimposes and displays a virtual object on a real image captured by a small camera attached to the back of the mobile terminal, and operates it with a finger placed in a space behind the terminal, The present invention relates to a user interface system that can be linked to control and operation of an application in a terminal.

近年、コンピュータの小型化、軽量化が進んでおり、スマートフォンなどの高性能で持ち運び可能な携帯端末が一般的に普及するようになった。これにより、文書作成や画像編集など、従来PC上で行っていた作業が屋外で場所を選ばず容易に行えるようになってきた。しかし、小型の携帯端末は、その表面上に設置された操作領域が小さいため、煩瑣な操作を必要とする作業に対しては指による操作では限界があり利便性が低下する。   In recent years, computers have become smaller and lighter, and high-performance portable terminals such as smartphones have become popular. As a result, operations such as document creation and image editing, which have been conventionally performed on a PC, can be easily performed outdoors regardless of location. However, since a small portable terminal has a small operation area installed on the surface thereof, there is a limit to the operation with a finger for work that requires a cumbersome operation, and convenience is lowered.

この問題を解決するための一つの手段として、拡張現実感(AR:Augmented Reality)の技術を用いて小型機器表面の2次元的な操作領域を3次元的な実空間に移し、より広い操作領域を確保することで機器の利便性の向上を図る研究が行われている。非特許文献2、3、5では、実空間の物体の表面やユーザの手や腕などに仮想物体を投映し、それらを実空間上で操作可能にしているが、小型プロジェクタなどの外部機器を身体に装着する必要があることや、仮想物体の投映面の形状に制限があるなどの問題点がある。   As a means to solve this problem, the augmented reality (AR) technology is used to move the two-dimensional operation area on the surface of the small device into a three-dimensional real space, and a wider operation area. Research has been conducted to improve the convenience of equipment by ensuring the above. In Non-Patent Documents 2, 3, and 5, virtual objects are projected onto the surface of an object in real space, a user's hand or arm, and the like can be operated in real space. There are problems such as the need to be worn on the body and limitations on the shape of the projection surface of the virtual object.

非特許文献1では、カメラで撮影した実画像上に仮想物体を重畳し、3次元空間内で仮想物体を直接手で触っている感覚を得るシステムを提案しているが、ユーザへの映像提示をヘッドマウントディスプレイを用いて行っているため、操作場所の制約は少ないが、ここでも外部機器装着の煩わしさがある。   Non-Patent Document 1 proposes a system that superimposes a virtual object on a real image captured by a camera and obtains a feeling of directly touching the virtual object with a hand in a three-dimensional space. However, there are few restrictions on the operation location, but there is also the trouble of mounting external devices here.

それらに対し、特別な外部機器を必要とせず、携帯端末に搭載されたリソースのみを利用して指認識を行うことで、その端末を空中で操作可能にするユーザインタフェースシステムが開発されている(非特許文献4)。このシステムでは、外部機器装着の煩わしさは解消され、ユーザへの情報提示は端末のディスプレイに行われるため、利用環境も制限されないが、端末前面に取り付けられたカメラを使用するため、撮影画像に指認識を困難にする要因が写り込む。また、カメラのレンズ方向とユーザの視線方向が逆になるため、指の動きに連動させた仮想物体を重畳した場合、その動きが不自然に見え、3次元上での実体感のある操作を実現することが困難という問題があった。   On the other hand, a user interface system has been developed that does not require a special external device, and can operate the terminal in the air by performing finger recognition using only the resources installed in the portable terminal ( Non-patent document 4). In this system, the troublesomeness of wearing external devices is eliminated, and information is presented to the user on the display of the terminal, so the usage environment is not limited, but because the camera attached to the front of the terminal is used, Factors that make finger recognition difficult. In addition, since the camera lens direction and the user's line-of-sight direction are reversed, when a virtual object linked to the movement of a finger is superimposed, the movement looks unnatural and a realistic operation on three dimensions is performed. There was a problem that it was difficult to realize.

M. Lee, W. Woo, ARKB: 3D vision-based Augmented Reality Keyboard,Int Conf Artif Real Telexistence, vol.13, pp.54--57, 2003.M. Lee, W. Woo, ARKB: 3D vision-based Augmented Reality Keyboard, Int Conf Artif Real Telexistence, vol.13, pp.54--57, 2003. H. Roeber, J. Bacus, C. Tomasi, Typing in Thin Air:The Canesta Projection Keyboard -- A New Method of Interactionwith Electronic Devices, CHI'03 Extended Abstracts on Human Factors inComputing Systems, pp.712--713, 2003.H. Roeber, J. Bacus, C. Tomasi, Typing in Thin Air: The Canesta Projection Keyboard-A New Method of Interaction with Electronic Devices, CHI'03 Extended Abstracts on Human Factors in Computing Systems, pp.712--713, 2003 . P. Mistry, P. Maes, SixthSense: A Wearable Gestural Interface,ACM SIGGRAPH ASIA 2009 Sketches Article, No.11, 2009.P. Mistry, P. Maes, SixthSense: A Wearable Gestural Interface, ACM SIGGRAPH ASIA 2009 Sketches Article, No. 11, 2009. T. Niikura, Y. Hirobe, A. Cassinelli, Y. Watanabe, T. Komuro, M. Ishikawa, In-Air Typing Interface for Mobile Devices with Vibration Feedback, ACM SIGGRAPH 2010 Emerging Technologies Article, No.15, 2010.T. Niikura, Y. Hirobe, A. Cassinelli, Y. Watanabe, T. Komuro, M. Ishikawa, In-Air Typing Interface for Mobile Devices with Vibration Feedback, ACM SIGGRAPH 2010 Emerging Technologies Article, No. 15, 2010. C. Harrison, H. Benko, A. D. Wilson, OmniTouch: Wearable MultitouchInteraction Everywhere, Proceedings of the 24th annual ACM symposium on Userinterface software and technology, pp.441--450, 2011C. Harrison, H. Benko, A. D. Wilson, OmniTouch: Wearable MultitouchInteraction Everywhere, Proceedings of the 24th annual ACM symposium on Userinterface software and technology, pp.441--450, 2011

そこで本発明は、携帯端末の背面に取り付けた小型カメラで撮影された実画像上に、仮想物体を重ね合わせて表示し、それを端末奥の空間に置いた手指で操作することで、実際にその仮想物体を触っているように感じながら、携帯端末の制御や端末内のアプリケーションの動作に連動させることができるユーザインタフェースシステムを提案することを目的になされたものである。   Therefore, the present invention actually displays a virtual object superimposed on a real image captured by a small camera attached to the back of the mobile terminal, and operates it with fingers placed in the space behind the terminal. The object of the present invention is to propose a user interface system that can be linked to the control of a mobile terminal and the operation of an application in the terminal while feeling as if the user touches the virtual object.

そのため本発明は、携帯端末の奥の空間に置いた手指を上方から撮影するカメラと、このカメラで撮影された手指の実画像上に仮想キーボードを重ね会わせて表示するディスプレイと、この仮想キーボードを操作することで、指の動きに連動しながら動く仮想キーとを備えたことを最も主要な特徴とする。   Therefore, the present invention provides a camera that captures a finger placed in the back space of a mobile terminal from above, a display that displays a virtual keyboard superimposed on the actual image of the finger captured by the camera, and the virtual keyboard. The most important feature is that a virtual key that moves in conjunction with the movement of the finger is provided by operating.

本発明は、カメラのレンズ方向と操作者の視線方向が一致するので、容易にARの技術と組み合わせることができ、より現実感のある操作を実現できる。本発明者は、この検証用システムを用い、キーボードアプリケーションを通して、実際のキーを押しているように感じられ、その効果を確認した。   In the present invention, since the lens direction of the camera and the line-of-sight direction of the operator coincide with each other, the present invention can be easily combined with the AR technology and a more realistic operation can be realized. The inventor used this verification system, and felt the actual key pressed through the keyboard application, and confirmed the effect.

このシステムの最大の特徴は、前面カメラではなく背面カメラを用いているため、カメラのレンズ方向と操作者の視線方向が一致し、容易にARの技術と組み合わせることができ、より現実感のある操作を実現できることある。つまり、カメラで撮影された実画像上に仮想物体を重畳し、それらを指の動きに連動させて動かしても不自然さを感じることがない。また、指認識結果を撮影画像に重畳することで、仮想物体上に指を移動させたときに、実際にその仮想物体を触っているかのようにユーザに視認させることができ、より実体感のある操作が実現できる。また、タッチパネルなどのように、直接指がディスプレイに触れないので、汗や皮脂などが表面に付着せず、ディスプレイの汚れを防止できる。   The biggest feature of this system is that it uses a rear camera instead of a front camera, so the camera lens direction matches the operator's line-of-sight direction, and can be easily combined with AR technology, making it more realistic. Operation can be realized. That is, even if a virtual object is superimposed on a real image photographed by a camera and moved in conjunction with the movement of a finger, unnaturalness is not felt. In addition, by superimposing the finger recognition result on the captured image, when the finger is moved on the virtual object, the user can visually recognize the virtual object as if actually touching it. A certain operation can be realized. Moreover, since a finger does not touch the display directly like a touch panel, sweat or sebum does not adhere to the surface, and the display can be prevented from being soiled.

端末操作の際は、特別な外部機器を身体に装着する必要はなく、ユーザへの情報提示は端末のディスプレイに行われるため、利用環境を制限しないという利点もある。また、肘の曲げが浅い状態で操作できるため、操作者への身体的負担が軽減される。さらに、操作者の手指は端末奥に置かれるため、端末のディスプレイに顔を近づけて操作することも可能であり、端末ディスプレイ上に仮想物体が小さく表示されていても、それらを容易に目視でき誤操作を減らすことができる。これらは特に、体力や視力が低下した高齢者に対して有効である。   When the terminal is operated, it is not necessary to wear a special external device on the body, and information presentation to the user is performed on the display of the terminal. Therefore, there is an advantage that the use environment is not limited. In addition, since the operation can be performed with the elbow bent shallowly, the physical burden on the operator is reduced. Furthermore, since the operator's fingers are placed in the back of the terminal, it is possible to operate with the face close to the terminal display, and even if virtual objects are displayed small on the terminal display, they can be easily seen. Misoperations can be reduced. These are particularly effective for elderly people with poor physical fitness and visual acuity.

端末奥の広い空間が操作領域となるので、より利便性の高い端末操作を実現できる。手指認識の対象となる画像は、端末背面のカメラで撮影されるため、頭上からの光がカメラのレンズに対して逆光とならないため撮影画像は明るくなる。また、操作者の顔や屋内の蛍光灯などが撮影画像に写り込まない。さらに、操作者の爪のテクスチャ情報が利用できる。それらの利点により手指の認識が容易になる。従って端末背面のカメラで撮影される画像には、逆光・ユーザの顔・蛍光灯などの指認識を困難にする要因は含まれず、ユーザの爪が写り込むので、これらが指認識を容易にする。   Since a wide space at the back of the terminal serves as the operation area, more convenient terminal operation can be realized. Since the image to be recognized by the finger is captured by the camera on the back of the terminal, the captured image becomes bright because the light from the overhead is not backlit against the camera lens. In addition, the operator's face and indoor fluorescent lamps do not appear in the captured image. Furthermore, texture information of the operator's nails can be used. These advantages facilitate finger recognition. Therefore, the image captured by the camera on the back of the terminal does not include factors that make it difficult to recognize the finger, such as backlight, user's face, and fluorescent light. .

指認識にはトラッキングベースのアルゴリズムを用いているため、カメラのフレームレートを上げることでその安定性が向上する。   Since a tracking-based algorithm is used for finger recognition, the stability is improved by increasing the frame rate of the camera.

以上により、このシステムは、広い操作空間上でARにより実体感のある操作を容易に実現できるシステムとなっている。このシステムは操作の際に特別な操作環境を必要とせず、操作者への負担は軽く、安定した指認識も実現される。   As described above, this system is a system that can easily realize a substantial operation by AR in a wide operation space. This system does not require a special operating environment for operation, and the burden on the operator is light and stable finger recognition is realized.

本発明を実施したシステムの操作の様子を説明するための斜視図である。It is a perspective view for demonstrating the mode of operation of the system which implemented this invention. 本発明を実施した実験システムの構成図である。It is a block diagram of the experimental system which implemented this invention. 別の実施例としてカメラを端末下側の側面に取り付けた斜視図である。It is the perspective view which attached the camera to the side surface of the terminal lower side as another Example. ARキーボードの例である。It is an example of an AR keyboard. 指先初期検出時に得られる指先画像の例である。It is an example of the fingertip image obtained at the time of fingertip initial detection. 指の動きに連動しながら動く仮想キーの例である。It is an example of the virtual key which moves in conjunction with the movement of the finger. 別の実施例としてキーの文字を見えるようにした指先の表示例である。It is a display example of the fingertip which made the character of a key visible as another Example.

以下、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below.

図1に、本発明を実施したシステムの操作の様子を説明するための斜視図を示す。
本システムは、手hが置かれた端末T奥の空間を端末Tの背面に取り付けた小型カメラ1で撮影し、得られた画像列を処理することで、指fの動きを認識し、その画像列に仮想キーボードkと認識結果を重ね合わせて端末Tのディスプレイ2に表示する。よって、操作領域は端末T奥の広い空間となり、より利便性の高い端末操作を実現できる。
FIG. 1 is a perspective view for explaining a state of operation of a system embodying the present invention.
This system captures the space behind the terminal T where the hand h is placed with the small camera 1 attached to the back of the terminal T, processes the obtained image sequence, and recognizes the movement of the finger f. The virtual keyboard k and the recognition result are superimposed on the image sequence and displayed on the display 2 of the terminal T. Therefore, the operation area is a wide space behind the terminal T, and a more convenient terminal operation can be realized.

図2に、本発明を実施した実験システムの構成図を示す。図2(a)は、その正面図、図2(b)は、その背面図を示す。
実験システムは、小型カメラ1、小型ディスプレイ2、PC3から構成される。
小型カメラ1は、ディスプレイ2の奥の空間を写すように端末Tの背面に取り付けられている。あるいは図3に示すように、小型カメラ1を端末Tの下側の側面に取り付けてもよい。これにより、手hが端末Tによって覆い隠されなくなるので、手指全体が直視できるようになり、操作性が向上する。
FIG. 2 shows a configuration diagram of an experimental system in which the present invention is implemented. FIG. 2A shows a front view thereof, and FIG. 2B shows a rear view thereof.
The experimental system is composed of a small camera 1, a small display 2, and a PC 3.
The small camera 1 is attached to the back surface of the terminal T so as to capture the space behind the display 2. Or you may attach the small camera 1 to the lower side surface of the terminal T, as shown in FIG. As a result, the hand h is not obscured by the terminal T, so that the entire finger can be seen directly and the operability is improved.

手指を含めて撮影された画像列はPC3上で処理され、指fの動きがシステムへの入力として認識される。このシステムは、小型カメラ1が取り付けられた小型ディスプレイ2をスマートフォンなどの携帯端末に置き換え、PC3で行っている認識処理を携帯端末の処理系統で行うことにより、実システムとして実現できる。   An image sequence including a finger is processed on the PC 3, and the movement of the finger f is recognized as an input to the system. This system can be realized as an actual system by replacing the small display 2 to which the small camera 1 is attached with a portable terminal such as a smartphone and performing the recognition processing performed by the PC 3 by the processing system of the portable terminal.

指の動きの認識はトラッキングベースなアルゴリズムを用いて行い、指先の位置・姿勢を推定する。認識処理は、カメラから取得される撮影画像に対して順次行われる。その処理は、取得した一枚の撮影画像に対し、指先パラメータ推定の探索初期点を決定し、テンプレートマッチングにより指先のパラメータを推定する。得られた推定解は次の撮影画像のパラメータ探索初期点に設定される。推定する指先パラメータはカメラ光軸に垂直な平面上での水平・垂直の並進量、光軸方向の並進による倍率変化、光軸周りの回転角である。   Finger movement recognition is performed using a tracking-based algorithm to estimate the position and posture of the fingertip. The recognition process is sequentially performed on the captured image acquired from the camera. The process determines a fingertip parameter estimation initial search point for one acquired photographed image, and estimates the fingertip parameters by template matching. The obtained estimated solution is set as the parameter search initial point of the next photographed image. The fingertip parameters to be estimated are horizontal and vertical translation amounts on a plane perpendicular to the camera optical axis, a change in magnification due to translation in the optical axis direction, and a rotation angle around the optical axis.

指先の初期検出は、撮影画像の中心に配置された指先輪郭画像に指先を合わせることによって行われる。指先初期検出時の指先は画像として記憶され、それを以後のトラッキングにおいてテンプレートとして利用し実画像とのマッチングを行う。各時点において取得された撮影画像において、初期指先画像と撮影画像から構成される評価関数を最小にするような指先パラメータを求める。テンプレートとして用いる指先画像には指の周りの背景情報は含まれない。従って背景に依存しないパラメータ推定が可能となる。また、認識結果の実画像上への重畳も容易になる。   Initial detection of the fingertip is performed by aligning the fingertip with the fingertip contour image arranged at the center of the captured image. The fingertip at the time of initial detection of the fingertip is stored as an image, which is used as a template in subsequent tracking to match the actual image. In the captured image acquired at each time point, a fingertip parameter that minimizes an evaluation function composed of the initial fingertip image and the captured image is obtained. The fingertip image used as a template does not include background information around the finger. Therefore, parameter estimation independent of the background is possible. In addition, the recognition result can be easily superimposed on the actual image.

このシステムでは、撮影画像上に指の動きに連動して動く仮想物体を重畳することで、現実感のあるインタフェースをユーザに提示できる。そのインタフェースの例として、ARキーボードを図4に示す。このインタフェースでは3次元空間上での指の動きとキーの動きを連動させており、カメラ1で撮影した実画像上に半透明の仮想キーボードkを表示し、それをタイプできるようにしている。タイプした結果は上方の入力フィールドNに表示される。キーボードkの上には、指先初期検出時に得られた指先f画像を指認識結果のパラメータに基づいて変形させた画像を表示する。このとき、端末Tの操作領域が小さいため仮想キーボードkを小さく表示する場合は、指先f画像のサイズを仮想キーボードkのサイズに合わせて表示する。   In this system, a realistic interface can be presented to the user by superimposing a virtual object that moves in conjunction with the movement of the finger on the captured image. As an example of the interface, an AR keyboard is shown in FIG. In this interface, finger movement and key movement in a three-dimensional space are linked, and a translucent virtual keyboard k is displayed on a real image taken by the camera 1 so that it can be typed. The typed result is displayed in the upper input field N. On the keyboard k, an image obtained by deforming the fingertip f image obtained at the fingertip initial detection based on the parameter of the finger recognition result is displayed. At this time, when the virtual keyboard k is displayed small because the operation area of the terminal T is small, the size of the fingertip f image is displayed in accordance with the size of the virtual keyboard k.

指先画像を重畳させない場合は、仮想キーボードkに触っている感が得られず、不自然さを感じるが、指先f画像を重畳した場合は、実際に仮想キーボードkを触っているかのようにユーザに視認させることができる。   If the fingertip image is not superimposed, the feeling of touching the virtual keyboard k is not obtained, and the user feels unnatural, but if the fingertip f image is superimposed, the user feels as if he / she is actually touching the virtual keyboard k. Can be visually recognized.

図5に、指先初期検出時に得られる指先画像の例を示す。キータイプの判定は爪先付近の点pで行う。この点pがあるキー上に乗ったとき、その時点の指認識結果の指先サイズを記憶し、以後その値を基準にキーの奥行き方向への移動量が計算される。記憶した基準値よりも指先サイズが小さくなれば, その移動量は大きくなる。
従って、図6(a)から図6(b)のように指fを端末奥に移動させていけばカメラ1に写る指サイズが小さくなりキーも奥へと押し込まれていき、指fをカメラ1に近づければ、押し込まれたキーも元の位置に戻る。このようにして、実際のキーボードのキーを実際に指fで押しているような感覚が得られる。指fが動いてキータイプ判定点が別のキー上に乗ったとき、その直前まで指が乗っていたキーは元の位置に戻り、キー押下の基準値は更新される。
FIG. 5 shows an example of a fingertip image obtained at the initial detection of the fingertip. The key type is determined at a point p near the toe. When this point p is on a certain key, the fingertip size of the finger recognition result at that time is stored, and thereafter, the amount of movement of the key in the depth direction is calculated based on that value. If the fingertip size is smaller than the stored reference value, the amount of movement increases.
Accordingly, if the finger f is moved to the back of the terminal as shown in FIG. 6A to FIG. 6B, the finger size reflected in the camera 1 is reduced, and the key is pushed further to the back. If it is close to 1, the pressed key will also return to its original position. In this way, a feeling that an actual keyboard key is actually pressed with the finger f can be obtained. When the finger f moves and the key type determination point is placed on another key, the key on which the finger was placed just before that is returned to the original position, and the key press reference value is updated.

新しく指fが乗ったキーに対する押下量はその新たな基準値に従って計算される。ある閾値を超えてキーが押し込まれた場合、キー入力と判定され、そのキーに対応する情報が端末内アプリケーションとユーザにフィードバックされる。キーの押下開始平面を一定の高さに設定した場合、新しいキーをタイプするときに、その高さまで指fを戻す必要があり、これは空中では不安定な操作の原因となる。   The pressing amount for the key on which the finger f is newly placed is calculated according to the new reference value. When a key is pressed beyond a certain threshold, it is determined that the key is input, and information corresponding to the key is fed back to the terminal application and the user. When the key pressing start plane is set to a certain height, when typing a new key, it is necessary to return the finger f to that height, which causes an unstable operation in the air.

本システムでは、キー押下開始平面を可変にすることで、この問題を回避している。カメラ1からキー押下開始平面までの距離は固定されていないので、キーを押すときユーザはその平面を空中で探す必要がない。新しいキー押下は常にそのキー上に指fが乗った時点の指f位置から開始されるので、手h全体の大きな上下運動なしで、その時点の位置で指fの付け根の関節のみの動きによる小さな上下運動で新しいキーを押すことができる。これは、空中での安定したキータイピングを可能にする。   This system avoids this problem by making the key press start plane variable. Since the distance from the camera 1 to the key pressing start plane is not fixed, the user does not have to search for the plane in the air when pressing the key. Since the new key press always starts from the position of the finger f when the finger f is placed on the key, the movement of only the joint at the base of the finger f is performed at that point in time without a large vertical movement of the entire hand h. You can press a new key with a small up and down movement. This enables stable key typing in the air.

キータイピングにおいて、指f等でキーに触れる際に、キー等のオブジェクトをその指f等が覆い隠すので、ユーザがオブジェクトの位置を正確に認識できないという問題がある。特に指fの大きい大人或いは欧米人にとってはこれが問題になる場合が多い(いわゆるFat Finger Problem)。そのため、図7(a)に示すように、指f先を半透明にしてキーの文字を見えるように表示したり、図7(b)に示すように、指f先を電子ペンのように細いスティック状に変形して表示してもよい。   When touching a key with a finger f or the like in key typing, there is a problem that the user cannot accurately recognize the position of the object because the finger f or the like covers the object such as the key. This is often a problem for adults with large fingers or Westerners (so-called Fat Finger Problem). Therefore, as shown in FIG. 7A, the finger f tip is made translucent and displayed so that the character of the key can be seen, or as shown in FIG. 7B, the finger f tip is like an electronic pen. It may be displayed as a thin stick.

実操作における主観的評価に関して、以下に述べる。キー上での指fの移動において、指fが乗っているキーが変わる毎にキー押下開始平面が初期化されるので、キーを僅かに押し込みながら指fは移動していく。これにより、被験者は実際のキーボード上で指fを滑らしているような感覚が得られた。また、キー押下開始平面を可変にすることで、被験者は任意の位置で小さな上下動作でキータイピングができた。加えて、その上下運動は、実際のキーボード上でのキータイピングの動きと同じであり、結果的に被験者は実際の感覚でキータイピングができた。このように、本システムは実体感を感じるインタフェースを携帯端末上で不自然なく容易にユーザに提示できる。   The subjective evaluation in actual operation is described below. In the movement of the finger f on the key, the key pressing start plane is initialized every time the key on which the finger f is placed changes, so that the finger f moves while pushing the key slightly. As a result, the subject could feel as if the finger f was sliding on the actual keyboard. In addition, by making the key press start plane variable, the subject was able to perform key typing with a small vertical movement at an arbitrary position. In addition, the up-and-down movement is the same as the movement of key typing on an actual keyboard. As a result, the subject was able to perform key typing with an actual sense. In this way, the present system can easily present an interface that feels real to the user on the mobile terminal without any unnaturalness.

1 カメラ
2 ディスプレイ
3 PC
f 指
h 手
k 仮想キーボード
N 入力フィールド
T 端末
1 Camera 2 Display 3 PC
f finger h hand k virtual keyboard N input field T terminal

Claims (6)

携帯端末の奥の空間に置いた手指を上方から撮影するカメラと、
このカメラで撮影された手指の実画像上に仮想キーボードを重ね会わせて表示するディスプレイと、
この仮想キーボードを操作することで、指の動きに連動しながら動く仮想キーと、
を備えたことを特徴とする携帯端末向けARジェスチャユーザインタフェースシステム。
A camera that shoots the fingers placed in the space behind the mobile device from above,
A display that displays a virtual keyboard superimposed on the actual image of a finger taken with this camera;
By operating this virtual keyboard, virtual keys that move in conjunction with finger movements,
An AR gesture user interface system for mobile terminals, comprising:
前記カメラは携帯端末の背面あるいは下側の側面に取り付けられることを特徴とする請求項1記載の携帯端末向けARジェスチャユーザインタフェースシステム。   2. The AR gesture user interface system for mobile terminals according to claim 1, wherein the camera is attached to a back surface or a lower side surface of the mobile terminal. 前記指の動きに連動しながら動く仮想キーは指を端末奥に移動させていけば指サイズが小さくなり仮想キーも奥へと押し込まれていき、指をカメラに近づければ、押し込まれた仮想キーも元の位置に戻ることを特徴とする請求項1記載の携帯端末向けARジェスチャユーザインタフェースシステム。   The virtual key that moves while interlocking with the movement of the finger decreases the finger size if the finger is moved to the back of the terminal, the virtual key is pushed deeper, and if the finger is brought closer to the camera, the virtual key that is pushed 2. The AR gesture user interface system for portable terminals according to claim 1, wherein the key also returns to the original position. 前記新しく指が乗った仮想キーに対する押下量は指が乗った時点で記憶される指サイズを基準値として計算され、ある閾値を超えてキーが押し込まれた場合、キー入力と判定され、そのキーに対応する情報が端末内アプリケーションとユーザにフィードバックされることを特徴とする請求項1記載の携帯端末向けARジェスチャユーザインタフェースシステム。   The pressed amount for the virtual key on which the finger is newly placed is calculated with the finger size stored when the finger is placed as a reference value, and when the key is pushed in exceeding a certain threshold, it is determined as a key input, and the key 2. The AR gesture user interface system for mobile terminals according to claim 1, wherein information corresponding to is fed back to the terminal application and the user. 前記仮想キーボードを操作する際、指先を半透明にして仮想キーの文字を見えるように表示することを特徴とする請求項1記載の携帯端末向けARジェスチャユーザインタフェースシステム。   2. The AR gesture user interface system for portable terminals according to claim 1, wherein when the virtual keyboard is operated, a fingertip is translucently displayed so that characters of the virtual key can be seen. 前記仮想キーボードを操作する際、指先を電子ペンのように細いスティック状に変形して表示することを特徴とする請求項1記載の携帯端末向けARジェスチャユーザインタフェースシステム。   2. The AR gesture user interface system for portable terminals according to claim 1, wherein when operating the virtual keyboard, a fingertip is deformed and displayed in a thin stick shape like an electronic pen.
JP2013068961A 2013-03-28 2013-03-28 AR gesture user interface system for mobile terminals Active JP6165485B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013068961A JP6165485B2 (en) 2013-03-28 2013-03-28 AR gesture user interface system for mobile terminals

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013068961A JP6165485B2 (en) 2013-03-28 2013-03-28 AR gesture user interface system for mobile terminals

Publications (2)

Publication Number Publication Date
JP2014192838A true JP2014192838A (en) 2014-10-06
JP6165485B2 JP6165485B2 (en) 2017-07-19

Family

ID=51838704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013068961A Active JP6165485B2 (en) 2013-03-28 2013-03-28 AR gesture user interface system for mobile terminals

Country Status (1)

Country Link
JP (1) JP6165485B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105373236A (en) * 2015-10-09 2016-03-02 北京搜狗科技发展有限公司 Entry learning method and apparatus
JP2016100825A (en) * 2014-11-25 2016-05-30 カシオ計算機株式会社 Imaging apparatus, data storage method and program
JP2016148901A (en) * 2015-02-10 2016-08-18 嘉泰 小笠原 Information processing apparatus, information processing program, information processing system, and information processing method
JP2016148896A (en) * 2015-02-10 2016-08-18 裕介 北園 Information processing apparatus, information processing program, information processing system, and information processing method
JP2016148899A (en) * 2015-02-10 2016-08-18 嘉泰 小笠原 Electronic apparatus
CN106095235A (en) * 2016-06-07 2016-11-09 腾讯科技(深圳)有限公司 Control method based on virtual reality and device
JP6257826B1 (en) * 2017-05-31 2018-01-10 株式会社コロプラ Method, program, and information processing apparatus executed by computer to provide virtual space
WO2018198910A1 (en) * 2017-04-28 2018-11-01 株式会社ソニー・インタラクティブエンタテインメント Information processing device, control method for information processing device, and program
JP2018534643A (en) * 2015-09-16 2018-11-22 グーグル エルエルシー Touch screen hover detection in augmented and / or virtual reality environments
WO2018227954A1 (en) * 2017-06-16 2018-12-20 京东方科技集团股份有限公司 Augmented reality display device and augmented reality display method
JPWO2017217375A1 (en) * 2016-06-15 2019-02-21 ナーブ株式会社 Image display apparatus, image display method, and image display program
CN109597492A (en) * 2018-12-05 2019-04-09 谷东科技有限公司 Laser virtual keyboard and AR glasses interactive system
JP2020513618A (en) * 2016-12-05 2020-05-14 マジック リープ, インコーポレイテッドMagic Leap,Inc. Virtual User Input Control in Mixed Reality Environment
US11334765B2 (en) 2017-07-26 2022-05-17 Magic Leap, Inc. Training a neural network with representations of user interface devices

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158675A (en) * 2006-12-21 2008-07-10 Toyota Motor Corp Operation device for vehicle
US20120001845A1 (en) * 2010-06-30 2012-01-05 Lee Chi Ching System and Method for Virtual Touch Sensing
WO2012075197A2 (en) * 2010-11-30 2012-06-07 Cleankeys Inc. Dynamically located onscreen keyboard
JP2012248067A (en) * 2011-05-30 2012-12-13 Canon Inc Information input device, control method for the same and control program
JP2013041431A (en) * 2011-08-16 2013-02-28 Fujitsu Ltd Input device, input control method, and input control program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158675A (en) * 2006-12-21 2008-07-10 Toyota Motor Corp Operation device for vehicle
US20120001845A1 (en) * 2010-06-30 2012-01-05 Lee Chi Ching System and Method for Virtual Touch Sensing
WO2012075197A2 (en) * 2010-11-30 2012-06-07 Cleankeys Inc. Dynamically located onscreen keyboard
JP2012248067A (en) * 2011-05-30 2012-12-13 Canon Inc Information input device, control method for the same and control program
JP2013041431A (en) * 2011-08-16 2013-02-28 Fujitsu Ltd Input device, input control method, and input control program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
廣部祐樹,他5名: "単眼カメラを用いた携帯機器向け空中タイピングインターフェース", 映像情報メディア学会技術報告, vol. 33, no. 23, JPN6017002402, 15 June 2009 (2009-06-15), JP, pages 65 - 68, ISSN: 0003506996 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016100825A (en) * 2014-11-25 2016-05-30 カシオ計算機株式会社 Imaging apparatus, data storage method and program
JP2016148901A (en) * 2015-02-10 2016-08-18 嘉泰 小笠原 Information processing apparatus, information processing program, information processing system, and information processing method
JP2016148896A (en) * 2015-02-10 2016-08-18 裕介 北園 Information processing apparatus, information processing program, information processing system, and information processing method
JP2016148899A (en) * 2015-02-10 2016-08-18 嘉泰 小笠原 Electronic apparatus
JP2018534643A (en) * 2015-09-16 2018-11-22 グーグル エルエルシー Touch screen hover detection in augmented and / or virtual reality environments
CN105373236A (en) * 2015-10-09 2016-03-02 北京搜狗科技发展有限公司 Entry learning method and apparatus
CN105373236B (en) * 2015-10-09 2020-09-08 北京搜狗科技发展有限公司 Word learning method and device
CN106095235A (en) * 2016-06-07 2016-11-09 腾讯科技(深圳)有限公司 Control method based on virtual reality and device
JPWO2017217375A1 (en) * 2016-06-15 2019-02-21 ナーブ株式会社 Image display apparatus, image display method, and image display program
JP7339392B2 (en) 2016-12-05 2023-09-05 マジック リープ, インコーポレイテッド Virtual User Input Control in Mixed Reality Environment
JP2022097726A (en) * 2016-12-05 2022-06-30 マジック リープ, インコーポレイテッド Virtual user input control in mixed reality environment
JP7112399B2 (en) 2016-12-05 2022-08-03 マジック リープ, インコーポレイテッド Virtual User Input Control in Mixed Reality Environment
US11720223B2 (en) 2016-12-05 2023-08-08 Magic Leap, Inc. Virtual user input controls in a mixed reality environment
JP2020513618A (en) * 2016-12-05 2020-05-14 マジック リープ, インコーポレイテッドMagic Leap,Inc. Virtual User Input Control in Mixed Reality Environment
US20200129850A1 (en) * 2017-04-28 2020-04-30 Sony Interactive Entertainment Inc. Information processing device, control method of information processing device, and program
US11617942B2 (en) 2017-04-28 2023-04-04 Sony Interactive Entertainment Inc. Information processing device, control method of information processing device, and program
US11896893B2 (en) 2017-04-28 2024-02-13 Sony Interactive Entertainment Inc. Information processing device, control method of information processing device, and program
US11077360B2 (en) 2017-04-28 2021-08-03 Sony Interactive Entertainment Inc. Information processing device, control method of information processing device, and program
US11260287B2 (en) 2017-04-28 2022-03-01 Sony Interactive Entertainment Inc. Information processing device, control method of information processing device, and program
WO2018198910A1 (en) * 2017-04-28 2018-11-01 株式会社ソニー・インタラクティブエンタテインメント Information processing device, control method for information processing device, and program
JPWO2018198910A1 (en) * 2017-04-28 2019-11-07 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus, information processing apparatus control method, and program
JP2018205913A (en) * 2017-05-31 2018-12-27 株式会社コロプラ Method which is executed on computer for providing virtual space, program and information processor
JP6257826B1 (en) * 2017-05-31 2018-01-10 株式会社コロプラ Method, program, and information processing apparatus executed by computer to provide virtual space
US11347055B2 (en) 2017-06-16 2022-05-31 Boe Technology Group Co., Ltd. Augmented reality display apparatus and augmented reality display method
WO2018227954A1 (en) * 2017-06-16 2018-12-20 京东方科技集团股份有限公司 Augmented reality display device and augmented reality display method
US11334765B2 (en) 2017-07-26 2022-05-17 Magic Leap, Inc. Training a neural network with representations of user interface devices
US11630314B2 (en) 2017-07-26 2023-04-18 Magic Leap, Inc. Training a neural network with representations of user interface devices
CN109597492B (en) * 2018-12-05 2022-03-04 谷东科技有限公司 Laser virtual keyboard and AR glasses interaction system
CN109597492A (en) * 2018-12-05 2019-04-09 谷东科技有限公司 Laser virtual keyboard and AR glasses interactive system

Also Published As

Publication number Publication date
JP6165485B2 (en) 2017-07-19

Similar Documents

Publication Publication Date Title
JP6165485B2 (en) AR gesture user interface system for mobile terminals
US9329691B2 (en) Operation input apparatus and method using distinct determination and control areas
CN107665042B (en) Enhanced virtual touchpad and touchscreen
JP5167523B2 (en) Operation input device, operation determination method, and program
US9619105B1 (en) Systems and methods for gesture based interaction with viewpoint dependent user interfaces
WO2022056036A2 (en) Methods for manipulating objects in an environment
CN102779000B (en) User interaction system and method
CN110968187B (en) Remote touch detection enabled by a peripheral device
US20190050132A1 (en) Visual cue system
KR102147430B1 (en) virtual multi-touch interaction apparatus and method
KR20140070326A (en) Mobile device providing 3d interface and guesture controlling method thereof
CN106445118B (en) Virtual reality exchange method and device
US11500452B2 (en) Displaying physical input devices as virtual objects
Matulic et al. Phonetroller: Visual representations of fingers for precise touch input with mobile phones in vr
KR20120126508A (en) method for recognizing touch input in virtual touch apparatus without pointer
CN111766937A (en) Virtual content interaction method and device, terminal equipment and storage medium
US11397478B1 (en) Systems, devices, and methods for physical surface tracking with a stylus device in an AR/VR environment
KR101321274B1 (en) Virtual touch apparatus without pointer on the screen using two cameras and light source
KR101370027B1 (en) Mouse apparatus for eye-glass type display device and operating method for the same
KR101564089B1 (en) Presentation Execution system using Gesture recognition.
Kemmoku et al. AR tabletop interface using a head-mounted projector
US20130187890A1 (en) User interface apparatus and method for 3d space-touch using multiple imaging sensors
Higuchi et al. AR typing interface for mobile devices
Bai et al. Poster: Markerless fingertip-based 3D interaction for handheld augmented reality in a small workspace
KR101272458B1 (en) virtual touch apparatus and method without pointer on the screen

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160318

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161213

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20161222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170621

R150 Certificate of patent or registration of utility model

Ref document number: 6165485

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250