JP2005301583A - Typing input device - Google Patents

Typing input device Download PDF

Info

Publication number
JP2005301583A
JP2005301583A JP2004115619A JP2004115619A JP2005301583A JP 2005301583 A JP2005301583 A JP 2005301583A JP 2004115619 A JP2004115619 A JP 2004115619A JP 2004115619 A JP2004115619 A JP 2004115619A JP 2005301583 A JP2005301583 A JP 2005301583A
Authority
JP
Japan
Prior art keywords
input device
typing
typing input
user
fingertip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004115619A
Other languages
Japanese (ja)
Inventor
Yoshihiro Yasumuro
喜弘 安室
Masataka Imura
誠孝 井村
Yoshitsugu Manabe
佳嗣 眞鍋
Kunihiro Chihara
國宏 千原
Masahiro Fujimoto
昌宏 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nara Institute of Science and Technology NUC
Original Assignee
Nara Institute of Science and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nara Institute of Science and Technology NUC filed Critical Nara Institute of Science and Technology NUC
Priority to JP2004115619A priority Critical patent/JP2005301583A/en
Publication of JP2005301583A publication Critical patent/JP2005301583A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a typing input device which is available in an arbitrary place for inputting characters with a sense of feeling similar to the input of characters by typing being the characteristics of an existing keyboard. <P>SOLUTION: This typing input device is provided with: a camera mounted on the wrist of a user to photograph the finger of the user; a sensor mounted on the arm of the user to recognize the inclination of the backward and forward and right and left directions of the arm of the user; and an information processor for detecting the position of the hand of the user by the inclination sensor, and for deciding typing keys, detecting the position of the fingertip of the user from an image photographed by the camera and detecting the typing operation based on the detected position of the hand and the detected position of the fingertip. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、タイピング入力装置に関する。   The present invention relates to a typing input device.

既存のパーソナルコンピュータ(PC)用文字入力デバイスであるキーボードの特徴としては、キーを指で叩く、いわゆるタイピングによる文字入力が可能である点や、キーと文字が1対1対応(1自由度)である点、等が挙げられる。入力の際にすべての指を使用化のである上、入力したい文字を出現させるまでにキーを押す回数がほとんどの場合1回で済むため、ある程度習熟すれば、高速かつ確実に文字入力が行えるという長所がある。   Characteristic features of the keyboard, which is an existing character input device for personal computers (PCs), include the ability to input characters by hitting keys with fingers, so-called typing, and one-to-one correspondence between keys and characters (one degree of freedom). And the like. In addition to using all fingers for input, the number of times the key is pressed only once until the character to be input appears, so if you master it to some extent, you can input characters quickly and reliably There are advantages.

しかしながら、短所として、キーボード全体にある程度の大きさが必要であり、そのままの状態では持ち運びや任意の場所での使用には不向きな点が挙げられる。単純に小型化しただけでは、キーが押しづらくなるために使用が少々困難になってしまい、使いやすさを維持できない。   However, a disadvantage is that the keyboard as a whole needs to have a certain size, and is unsuitable for carrying around or using in any place. Simply downsizing makes it difficult to use the keys, making it a little difficult to use and cannot maintain ease of use.

一方、近年のハードウェア技術の発達により、PC本体や周辺機器の小型化・軽量化は飛躍的に進みつつある。これを一因として、小型化した計算機器類を身体に装着し、時と場所を問わずにPCを使用するウェアラブルコンピューティングが次第に実現されようとしている。   On the other hand, with the recent development of hardware technology, the miniaturization and weight reduction of PC bodies and peripheral devices are progressing dramatically. For this reason, wearable computing that uses a PC regardless of time and place is gradually being realized by wearing reduced-sized computing devices on the body.

しかしながら、従来から計算機への文字入力手段として用いられ続けているキーボードに代表される文字入力デバイスは、上述したように小型化されるほどにユーザにとっては使いづらくなってしまい、可搬性と機能性が容易に両立し難いという問題があった。   However, a character input device represented by a keyboard that has been conventionally used as a character input means to a computer becomes difficult to use for a user as the size is reduced as described above, and is portable and functional. However, there was a problem that it was difficult to achieve both.

そうした趨勢の中で、実際のキーボードの代わりに、キーボードと同等又は類似した機能と、既存のキーボードにはないモバイル性とを兼ね備えた仮想のキーボード(バーチャルキーボード)の提案がいくつかなされている。   Under such circumstances, instead of an actual keyboard, several proposals have been made for a virtual keyboard (virtual keyboard) that has a function equivalent to or similar to a keyboard and mobility that is not found in an existing keyboard.

従来のバーチャルキーボードの第1のタイプはキーボード装着型である。これは、文字通り身体の一部及び服などに小型化したキーボードやボタン等を装着するものであるが、装着部位の面積的問題から配列可能なキー数が制限されることや、使用の際に装着部位に手を移動させなければならないため煩わしさが生じるといった問題があった。   A first type of conventional virtual keyboard is a keyboard-mounted type. This is literally to attach a miniaturized keyboard or button to a part of the body and clothes etc., but the number of keys that can be arranged is limited due to the area problem of the wearing part, and when using it There is a problem that troublesomeness arises because the hand must be moved to the mounting site.

従来のバーチャルキーボードの第2のタイプは卓上投影型である。これは、平面上にキーボードの画像を投影し、その投影面を指で触ることで文字入力が可能となるものであるが、机等の安定した十分な広さの平面がなければ使用できないため、使用場所が限定されてしまうという問題があった。   A second type of conventional virtual keyboard is a desktop projection type. This is because the keyboard image is projected onto a flat surface and characters can be input by touching the projected surface with a finger. However, it cannot be used without a stable and sufficiently large flat surface such as a desk. There was a problem that the place of use would be limited.

従来のバーチャルキーボードの第3のタイプはグローブ装着型である。これは、手や指に機器を装着することで、指と手の動きから文字入力を行うものであるが、手全体が拘束されるために、指を使う他の作業への移行がスムーズでないという問題があった。   A third type of conventional virtual keyboard is a glove-mounted type. In this method, characters are input from the movement of the finger and hand by attaching the device to the hand or finger. However, since the entire hand is restrained, the transition to other work using the finger is not smooth. There was a problem.

上述したことを鑑み、本発明は、従来技術のような欠点を克服し、既存のキーボードの特徴であるタイピングによる文字入力に類似した感覚で文字入力が可能であり、かつ任意の場所で使用可能であるタイピング入力装置を提供することを目的とする。   In view of the above, the present invention overcomes the drawbacks of the prior art, enables character input with a feeling similar to typing by characterizing the existing keyboard, and can be used in any place An object of the present invention is to provide a typing input device.

請求項1に記載の発明は、 ユーザの指を撮影するようにユーザの手首に取り付けられたカメラと、ユーザの手の位置及び/又は傾きを検出するセンサと、前記センサによって検出された情報から打鍵可能なキーを決定し、前記カメラによって撮影された画像からユーザの指先の位置をフレーム毎に検出し、検出された手の位置及び指先の位置に基づいて打鍵動作を検知する情報処理装置とを具えることを特徴とするタイピング入力装置である。   According to the first aspect of the present invention, there is provided a camera attached to a user's wrist so as to photograph a user's finger, a sensor for detecting a position and / or inclination of the user's hand, and information detected by the sensor. An information processing apparatus that determines a key that can be pressed, detects a position of a user's fingertip for each frame from an image captured by the camera, and detects a keystroke action based on the detected position of the hand and the fingertip; A typing input device comprising:

請求項2に記載の発明は、請求項1に記載のタイピング入力装置において、前記センサが傾斜センサであることを特徴とするタイピング入力装置である。   The invention described in claim 2 is the typing input device according to claim 1, wherein the sensor is a tilt sensor.

請求項3に記載の発明は、請求項1に記載のタイピング入力装置において、前記センサが三軸センサであることを特徴とするタイピング入力装置である。   According to a third aspect of the present invention, in the typing input device according to the first aspect, the sensor is a triaxial sensor.

請求項4に記載の発明は、請求項1から3のいずれか1項に記載のタイピング入力装置において、前記カメラが赤外線透過フィルタを具えることを特徴とするタイピング入力装置である。   A fourth aspect of the present invention is the typing input device according to any one of the first to third aspects, wherein the camera includes an infrared transmission filter.

請求項5に記載の発明は、請求項4に記載のタイピング入力装置において、ユーザの手に赤外線を照射する赤外線照射光源をさらに具えることを特徴とするタイピング入力装置である。   The invention according to claim 5 is the typing input apparatus according to claim 4, further comprising an infrared irradiation light source for irradiating the user's hand with infrared rays.

請求項6に記載の発明は、請求項1から5のいずれか1項に記載のタイピング入力装置において、前記情報処理装置が、前記カメラによって撮影された画像をニ値化し、このニ値化した画像に輪郭線抽出及び細線化を行い、これらに基づいてユーザの指先の位置を検出することを特徴とするタイピング入力装置である。   According to a sixth aspect of the present invention, in the typing input device according to any one of the first to fifth aspects, the information processing apparatus binarizes an image photographed by the camera and binarizes the image. This is a typing input device characterized in that outline extraction and thinning are performed on an image, and the position of a user's fingertip is detected based on these.

請求項7に記載の発明は、請求項6に記載のタイピング入力装置において、前記情報処理装置が、前記細線化した画像において下向きの端点を指先として決定することを特徴とするタイピング入力装置である。   The invention according to claim 7 is the typing input apparatus according to claim 6, wherein the information processing apparatus determines a downward end point as a fingertip in the thinned image. .

請求項8に記載の発明は、請求項6又は7に記載のタイピング入力装置において、前記情報処理装置が、前記輪郭抽出した画像において下向きのアーチ状になっている部分を探索し、一定区間内で最も下にある点を指先として決定することを特徴とするタイピング入力装置である。   According to an eighth aspect of the present invention, in the typing input device according to the sixth or seventh aspect, the information processing apparatus searches for a downward arched portion in the contour extracted image, and within a certain section. The typing input device is characterized in that the lowest point is determined as a fingertip.

請求項9に記載の発明は、請求項1から8のいずれか1項に記載のタイピング入力装置において、前記情報処理装置が、フレーム毎に検出された指先位置に基づいて、指先が急激に画面下方向に移動し、その指が移動した距離が他のすべての指が移動した距離より長く、移動した距離が一定距離以上であり、動き出してから止まるか運動方向が変化するまでの時間が一定時間以内であった場合、該指がタイピング動作を行ったと決定することを特徴とするタイピング入力装置である。   According to a ninth aspect of the present invention, in the typing input device according to any one of the first to eighth aspects, the information processing device causes the fingertip to abruptly be displayed on the screen based on the fingertip position detected for each frame. Moved downward, the distance that the finger moved is longer than the distance that all other fingers moved, the distance moved is more than a certain distance, and the time from when it starts to move until the movement direction changes is constant The typing input device determines that the finger has performed a typing operation when the time is within the time.

請求項10に記載の発明は、請求項1から9のいずれか1項に記載のタイピング入力装置において、前記情報処理装置が、前記センサによって検出されたユーザの腕の傾きに応じて、各指に割り当てられるキー候補を変更することを特徴とするタイピング入力装置である。   According to a tenth aspect of the present invention, in the typing input device according to any one of the first to ninth aspects, the information processing device detects each finger according to the inclination of the user's arm detected by the sensor. The typing input device is characterized in that a key candidate assigned to the key is changed.

請求項11に記載の発明は、請求項1から10のいずれか1項に記載のタイピング入力装置において、前記情報処理装置が、表示装置に仮想のキーボードを表示し、タイプされたキーの表示を変化させることを特徴とするタイピング入力装置である。   The invention according to claim 11 is the typing input device according to any one of claims 1 to 10, wherein the information processing device displays a virtual keyboard on a display device and displays typed keys. It is a typing input device characterized by changing.

請求項12に記載の発明は、請求項11に記載のタイピング入力装置において、前記情報処理装置が、前記仮想のキーボードにおいて、各指に割り当てられたキー候補を区別して表示することを特徴とするタイピング入力装置である。   The invention according to claim 12 is the typing input device according to claim 11, wherein the information processing device distinguishes and displays key candidates assigned to each finger on the virtual keyboard. This is a typing input device.

本発明によれば、物理的なキーボードがなくても空中やひざのうえ、電車に乗って立ったままなど、使用状況を選ばずにフルキーボードを使うのと同じタイピング入力ができる。また、仮想キーボードの実体はソフトウェアであるため、キーボードのサイズやキー配置は簡単にカスタマイズや切り替えができ、さらには様々な操作盤などへ応用が可能である。また何にも触れずにタイピングができることから、医療現場や極限環境などでのユーザインタフェースへの応用が期待できる。   According to the present invention, even if there is no physical keyboard, the same typing input as using a full keyboard can be performed without choosing a use situation, such as standing in the air, on a knee, or on a train. Moreover, since the virtual keyboard is software, the keyboard size and key layout can be easily customized and switched, and can be applied to various operation panels. In addition, since typing can be done without touching anything, it can be expected to be applied to user interfaces in medical settings and extreme environments.

図1は、本発明によるタイピング入力装置の構成の一例を示す図である。本タイピング入力装置1は、傾斜センサ2と、小型カメラ3と、赤外光照射光源4と、アームバンド5とを具える。傾斜センサ2と、小型カメラ3と、赤外線照射光源5とをアームバンド5に取り付け、ユーザの腕に装着する。傾斜センサ2及び小型カメラ3を情報処理装置(図示せず)に接続する。傾斜センサ2と、小型カメラ3と、赤外線照射光源5とに外部から電力を供給するか、内部電源を内蔵させる。   FIG. 1 is a diagram showing an example of the configuration of a typing input device according to the present invention. The typing input device 1 includes a tilt sensor 2, a small camera 3, an infrared light irradiation light source 4, and an arm band 5. The tilt sensor 2, the small camera 3, and the infrared irradiation light source 5 are attached to the armband 5 and attached to the user's arm. The tilt sensor 2 and the small camera 3 are connected to an information processing device (not shown). Power is supplied from the outside to the tilt sensor 2, the small camera 3, and the infrared irradiation light source 5, or an internal power supply is built in.

傾斜センサ2は、例えば三軸センサ又は傾斜センサであり、ユーザの腕の前後左右への傾きを認識し、その情報を情報処理装置に伝送する。情報処理装置は、前記傾きの度合いをホームポジションからの手の移動量としてみなし、タイプ可能なキーの候補を選択する。図2は、キー候補選択の動きを説明する図である。グレイの部分がタイピング可能なキーの範囲を示す。この図に示すように、ホームポジションをキーボードの中央とし、手首を前後に傾けるとホームポジションより上もしくは下の段のキーの打ち分けを、手首を左右に傾けるとホームポジションより左もしくは左のキーの打ち分けを行う。   The tilt sensor 2 is, for example, a three-axis sensor or a tilt sensor, recognizes the tilt of the user's arm in the front-rear and left-right directions, and transmits the information to the information processing apparatus. The information processing apparatus regards the degree of tilt as the amount of hand movement from the home position, and selects a key candidate that can be typed. FIG. 2 is a diagram for explaining the movement of key candidate selection. The gray part indicates the range of keys that can be typed. As shown in this figure, with the home position at the center of the keyboard, tilting the wrist back and forth will divide the keys above or below the home position, and tilting the wrist to the left or right will place the left or left key from the home position. Make a distinction.

小型カメラ3は、手首の下に指先を撮影するように配置し、得られた映像を情報処理装置に伝送する。手首の下の位置から指全体を視野に捉えるため、小型カメラ3には魚眼レンズを装着することが望ましい。また、小型カメラ3で撮影した映像から指先の動作を観察するためには、手の像を安定して取得する必要がある。そこで、赤外光照射光源4を、小型カメラ3の下に赤外光を照射するように配置し、小型カメラ3には赤外透過フィルタを取り付ける。このようにすれば、赤外透過フィルタは可視光を遮断するため、小型カメラ3に近接している手が非常に明るく映し出され、小型カメラ3で撮影した映像をしきい値処理のみで手指領域とそれ以外の領域にニ値化することが可能になる。   The small camera 3 is arranged so as to photograph a fingertip under the wrist, and transmits the obtained image to the information processing apparatus. In order to capture the entire finger in the field of view from the position under the wrist, it is desirable to attach a fisheye lens to the small camera 3. Further, in order to observe the movement of the fingertip from the video imaged by the small camera 3, it is necessary to stably acquire the hand image. Therefore, the infrared light irradiation light source 4 is disposed so as to irradiate infrared light under the small camera 3, and an infrared transmission filter is attached to the small camera 3. In this way, since the infrared transmission filter blocks visible light, the hand close to the small camera 3 is projected very brightly, and the image captured by the small camera 3 can be obtained only by threshold processing. It is possible to binarize in other areas.

情報処理装置は、小型カメラ3から送られた映像に、手領域抽出、指先抽出、かく指先の位置を検出、及び、指先の動きがある条件を満たしたときにタイピング動作であると判断といった処理を行い、タイピング動作を認識する。図3は、手領域を抽出し、指先を検出する処理を説明する流れ図であり、図4は、指先の動きからタイピング動作を認識する処理を説明する流れ図である。以下、これらの図面を参照しながら各処理について説明する。   The information processing apparatus performs processing such as hand region extraction, fingertip extraction, detection of the fingertip position in the video sent from the small camera 3, and determination of a typing operation when the fingertip movement satisfies certain conditions. To recognize typing action. FIG. 3 is a flowchart illustrating a process of extracting a hand region and detecting a fingertip, and FIG. 4 is a flowchart illustrating a process of recognizing a typing operation from the movement of the fingertip. Hereinafter, each process will be described with reference to these drawings.

先ず図3を参照し、手領域を抽出し、指先を検出する処理について説明する。図5は、図3に示す動作において処理される画像を示す図である。ステップs101において、情報処理装置は、小型カメラ3が得た映像をニ値化する(図5の61)。ステップS102において、前記ニ値化した映像をラベリング処理し、最大領域を占めるものを手領域と判断して抽出する。   First, referring to FIG. 3, a process of extracting a hand region and detecting a fingertip will be described. FIG. 5 is a diagram showing an image processed in the operation shown in FIG. In step s101, the information processing apparatus binarizes the video obtained by the small camera 3 (61 in FIG. 5). In step S102, the binarized video is subjected to a labeling process, and what occupies the maximum area is determined as a hand area and extracted.

ステップs103において、Hilditchの細線化法を用いて細線化を行う(図5の62)。ステップs104において、細線化された画像を元に下向きの端点を探索し、検出された部分を画像の左から順番に親指から小指までの各指先として対応付ける(図5の63)。   In step s103, thinning is performed using the thinning method of Hilditch (62 in FIG. 5). In step s104, a downward end point is searched based on the thinned image, and the detected portions are associated as the fingertips from the thumb to the little finger in order from the left of the image (63 in FIG. 5).

ステップs103及びs104の処理と同時に、ステップs105において、二値化された画像の手領域部分の最も画面下にある輪郭線を抽出する(図5の64)。ステップs106において、この抽出された輪郭線に沿って画面の左から右へ輪郭線追跡を行い、下向きのアーチ状になっている部分を探索していく。図6は、このような下向きのアーチ上部分の探索を説明する図である。具体的には、追跡していく各々の注目点に対し、その注目点を中心として左右の一定距離内(図6の例では3ピクセル内)に存在する輪郭線上の点が注目点よりも画面において上に存在しているかつまり極小値であるかどうかを判断する。その結果、注目点がある一定区間内において極小値であると判断された場合、指先点として検出し、画像の左から順番に親指から小指までの各指先として対応付ける(図5の65)。   Simultaneously with the processing of steps s103 and s104, in step s105, the contour line at the bottom of the screen in the hand region portion of the binarized image is extracted (64 in FIG. 5). In step s106, the contour line is traced along the extracted contour line from the left to the right of the screen to search for a downward arched portion. FIG. 6 is a diagram illustrating such a search for the downward upward arch portion. Specifically, for each point of interest to be tracked, a point on the outline existing within a certain distance (within 3 pixels in the example of FIG. 6) around the point of interest is displayed on the screen. It is determined whether or not it exists above, that is, a local minimum. As a result, when it is determined that the target point is a local minimum value within a certain interval, it is detected as a fingertip point and associated with each fingertip from the thumb to the little finger in order from the left of the image (65 in FIG. 5).

ステップs103及びs104と、ステップs105及びs106の2つの処理を同時に行って指先を検出している理由は、指先同士が少しでも重なって小型カメラから見えてしまっていると、二値化して細線化処理を行う際に重なっている指先同士の部分が端点にならず、連結して輪になってしまうためである。こうなると細線化処理により正常に5つの指先が検出されなくなる。そこで、ステップs107において、ステップs104で得られた結果において正常に5本の指が検出されているかどうか判断し、そうであれば、ステップs108において、細線化処理(ステップs103及びs104)により検出された結果を採用し、指同士が重なり合い5本の指先が検出できない場合は、ステップs109において、ステップs106で得られた結果において正常に5本の指が検出されているかを判断し、そうであれば輪郭線抽出処理(ステップs105及びs106)による結果を採用する。こうすることで、ほぼ常に指先を検出し続けることが可能になる。双方の処理において正常に5本の指先が検出できない場合、ステップs111において指先検出不可能と判断し、そのフレームでの指先位置検出をあきらめる。   The reason why the fingertips are detected by simultaneously performing the two processes of steps s103 and s104 and steps s105 and s106 is that if the fingertips overlap each other even if they are visible from a small camera, they are binarized and thinned. This is because the portions of the fingertips that overlap each other when performing processing do not become end points but are connected to form a ring. In this case, the five fingertips are not normally detected by the thinning process. Therefore, in step s107, it is determined whether or not five fingers are normally detected in the result obtained in step s104. If so, in step s108, the detection is performed by thinning processing (steps s103 and s104). If the finger overlaps and five fingertips cannot be detected, it is determined in step s109 whether the five fingers are normally detected in the result obtained in step s106. For example, the result of the contour line extraction process (steps s105 and s106) is adopted. In this way, it is possible to continue to detect the fingertip almost always. If the five fingertips cannot be detected normally in both processes, it is determined in step s111 that the fingertip cannot be detected, and the detection of the fingertip position in that frame is given up.

次に図4を参照し、指先の動きからタイピング動作を認識する処理を説明する。図7は、ある時間内の五指の動きの一例を示すグラフである。横軸はフレーム数(時間)、縦軸は画面Y軸方向(縦方向)の座標値である。このグラフを例として参照する。   Next, a process for recognizing a typing operation from a fingertip movement will be described with reference to FIG. FIG. 7 is a graph showing an example of the movement of five fingers within a certain time. The horizontal axis is the number of frames (time), and the vertical axis is the coordinate value in the screen Y-axis direction (vertical direction). Refer to this graph as an example.

ステップs201において、図3を参照して説明した処理により指先位置をフレーム毎に取得する。以降のステップにおいて、これらの指先位置を元に、各指先が画面上でどのように動いているかを観察する。その際、ある指先の動作がある条件を満たした場合、タイピング動作がなされたと判断する。   In step s201, the fingertip position is acquired for each frame by the processing described with reference to FIG. In subsequent steps, based on these fingertip positions, it is observed how each fingertip moves on the screen. At that time, if a certain fingertip operation satisfies a certain condition, it is determined that a typing operation has been performed.

先ずステップs202において、急激に画面下方向へ移動を開始した(この瞬間の座標値を最上点とする)後、しばらく同方向へ移動した後、画面上方向へ移動方向を反転又は静止した(この瞬間の座標値を最下点とする)指がないかどうかを判断する。なかった場合、ステップs203に進み、現フレームではキー入力がなかったと判断する。あった場合、ステップs204に進む。静止(Y軸方向に移動していない)もしくは画面上方向へ向かって移動していた指先が、ある時刻から1フレーム以内に画面下方向へ向かって例えば2ピクセル以上移動した場合を、「急激に画面下方向へ移動を開始した」と認識し、この時の移動開始位置を最上点とする。図7の例において、中指のグラフのA点からB点までの区間とC点からD点までの区間が「急激に画面下方向へ移動を開始した」と認識された箇所にあたり、これらの区間における最上点はそれぞれA点とC点である。最下点はBテントE点がこれに当たる。   First, in step s202, after suddenly starting to move downward in the screen (the coordinate value at this moment is the highest point), moving in the same direction for a while, the moving direction is reversed or stopped in the upward direction on the screen (this It is determined whether or not there is a finger (with the instantaneous coordinate value as the lowest point). If not, the process proceeds to step s203, and it is determined that there is no key input in the current frame. If there is, the process proceeds to step s204. When a fingertip that has been stationary (not moving in the Y-axis direction) or moving upward in the screen moves within 2 frames or less, for example, 2 pixels or less within one frame from a certain time, The movement start position at this time is set as the highest point. In the example of FIG. 7, the section from the A point to the B point and the section from the C point to the D point in the middle finger graph correspond to places where it is recognized that “the movement has started suddenly downward on the screen”. The top points in are A point and C point, respectively. The lowest point is B tent E point.

ステップs204において、注目している指(ステップs202において移動したと判断した指であり、図7の例においては中指)が移動した距離、すなわち最上点から最下点までの距離が、他のすべての指の移動距離より大きいかどうかを判断する。違う場合、ステップs203に進み、現フレームではキー入力がなかったと判断する。そうである場合、ステップs205に進む。図7の例において、中指のA点からB点までの区間が2ピクセル、C点からE点までの区間が11ピクセルである。まず、A点からB点までの区間について他の指との比較を行うと、最下点到達の時刻(26フレーム目)において人差し指と小指が画面下方向に動いていることがわかる。人差し指は25フレーム目にY座標値80から、中指の最下点到達の時刻までに1ピクセル移動している。小指は24フレーム目にY座標値68から、中指の最下点到達の時刻までに2ピクセル移動している。したがってこの場合は中指の移動距離と小指の移動距離が同じであるため、ステップs204の条件にそぐわないものと判断する。次に、C点からE点までの区間について他の指との比較を行うと、最下点到達の時刻(32フレーム目)においては薬指と小指が画面下方向に動いていることがわかる。薬指は31フレーム目にY座標値85から、中指の最下点到達時刻の時間までに1ピクセル移動している。小指は31フレーム目にY座標値68から、中指の最下点到達の時刻までに1ピクセル移動している。したがって、この場合は中指の移動距離が他の指の移動距離と比較して最大となるため、ステップs204の条件に合致するものと判断する。   In step s204, the distance that the finger of interest (the finger determined to have moved in step s202, the middle finger in the example of FIG. 7) has moved, that is, the distance from the highest point to the lowest point, It is judged whether it is larger than the movement distance of the finger. If not, the process proceeds to step s203, and it is determined that there is no key input in the current frame. If so, the process proceeds to step s205. In the example of FIG. 7, the section from the A point to the B point of the middle finger is 2 pixels, and the section from the C point to the E point is 11 pixels. First, when comparing the interval from point A to point B with other fingers, it can be seen that the index finger and little finger are moving downward on the screen at the time when the lowest point is reached (26th frame). The index finger has moved one pixel from the Y coordinate value 80 to the time of reaching the lowest point of the middle finger in the 25th frame. The little finger has moved 2 pixels from the Y coordinate value 68 to the time when the middle finger reaches the lowest point in the 24th frame. Therefore, in this case, since the moving distance of the middle finger and the moving distance of the little finger are the same, it is determined that the condition of step s204 is not met. Next, when comparing the section from point C to point E with other fingers, it can be seen that the ring finger and little finger are moving downward in the screen at the time when the lowest point is reached (the 32nd frame). The ring finger has moved by one pixel from the Y coordinate value 85 to the time of reaching the lowest point of the middle finger in the 31st frame. The little finger moves one pixel from the Y coordinate value 68 to the time when the middle finger reaches the lowest point in the 31st frame. Therefore, in this case, since the moving distance of the middle finger is the maximum compared with the moving distance of the other fingers, it is determined that the condition of step s204 is met.

ステップs205において、注目している指の最上点から最下点までの移動距離が一定距離以上であるかどうかを判断する。一定距離未満である場合、ステップs203に進み、現フレームではキー入力がなかったと判断する。一定距離以上である場合、ステップs206に進む。タイピング動作であるか否かを判断するための最上点から最下点までの移動距離のしきい値は、魚眼レンズによる画面のひずみや小型カメラから指先までの距離(約13cm)、各指の画面に対する位置等を考慮し、例えば親指と小指は5ピクセル、残りの指は4ピクセル以上と設定する。この距離は実世界において約2cm程に相当する。図7の例において、中指のC点からE点までの区間についてみてみると、最上点から最下点までの移動距離は11ピクセルである。したがって、中指のタイピング動作とみなすしきい値を越えているので、この区間はステップs205の条件に合致するものと判断する。   In step s205, it is determined whether or not the moving distance from the highest point to the lowest point of the finger of interest is a certain distance or more. If the distance is less than the predetermined distance, the process proceeds to step s203, and it is determined that there is no key input in the current frame. If the distance is equal to or greater than the certain distance, the process proceeds to step s206. The threshold values of the movement distance from the highest point to the lowest point for determining whether or not the typing operation is performed are the distortion of the screen by the fisheye lens, the distance from the small camera to the fingertip (about 13 cm), the screen of each finger For example, the thumb and little finger are set to 5 pixels, and the remaining fingers are set to 4 pixels or more. This distance corresponds to about 2 cm in the real world. In the example of FIG. 7, when looking at the section from the C point to the E point of the middle finger, the moving distance from the highest point to the lowest point is 11 pixels. Therefore, since the threshold value that is regarded as the typing operation of the middle finger is exceeded, it is determined that this section meets the condition of step s205.

ステップs206において、注目している指が動き出してから止まるか、再び運動方向が変化するまでの時間、すなわち、最上点出発の時刻と最下点到達の時刻との時間差が一定時間以内であるかどうかを判断する。時間差が一定時間を越える場合、ステップs203に進み、現フレームではキー入力がなかったと判断する。時間差が一定時間内である場合、ステップs207に進む。例えば、最上点出発の時刻と最下点到着の時刻との差が0.5秒以内であればタイピング動作であると判断する。図8の例において、中指のC点からE点までの区間についてみてみると、最上点から最下点までの移動に2フレーム、つまり0.2秒かかっていることがわかる。したがって、この区間はステップs206の条件に合致するものと判断する。   In step s206, whether the finger of interest is stopped after it starts moving, or the time until the direction of movement changes again, that is, whether the time difference between the time of starting from the highest point and the time of reaching the lowest point is within a certain time. Judge whether. If the time difference exceeds a certain time, the process proceeds to step s203, and it is determined that there is no key input in the current frame. If the time difference is within a certain time, the process proceeds to step s207. For example, if the difference between the departure time of the highest point and the arrival time of the lowest point is within 0.5 seconds, it is determined that the typing operation is being performed. In the example of FIG. 8, when the section from the C point to the E point of the middle finger is seen, it can be seen that it takes 2 frames, that is, 0.2 seconds, to move from the highest point to the lowest point. Therefore, it is determined that this section meets the condition of step s206.

ステップs207において、ステップs202、s204、s205及びs206における判断の結果から、注目している指がタイピング動作を行ったと判断し、ステップs208において、その指に対応したキー入力を行う。図8の例において、中指のC点からE点までの区間は上記4つの基準を満たしているため、32フレーム目に中指におけるタイピング動作が検出されることになる。   In step s207, it is determined from the determination results in steps s202, s204, s205, and s206 that the finger of interest has performed a typing operation, and in step s208, key input corresponding to the finger is performed. In the example of FIG. 8, since the section from the C point to the E point of the middle finger satisfies the above four criteria, a typing operation on the middle finger is detected at the 32nd frame.

実際の操作において、例えば、図2に示すようなタイピング入力装置を右腕の手首に装着し、片手だけで操作を行う。実際にキーボードを操作するような間隔で、中空でタイピング動作(指を振り下ろす動作)を行うと、各指に対応したキーが入力される。タイピング可能なキー候補の選択は、手首の前後左右の傾き具合により行う。また、手首を上下させることで、キーボード入力の有効/無効の切り替えが可能である。有効になっているときにのみ、中空でのタイピング動作をキー入力として受け付け、無効になっているときは一切の指の動作をキー入力として受け付けない。なお、このキー入力の有効無効の切り替え操作によって、ホームポジションとなる腕の傾き具合をリセットすることが可能である。無効から有効に切り替えられたときの腕の傾き具合をホームポジションとしてその都度認識する。   In actual operation, for example, a typing input device as shown in FIG. 2 is attached to the wrist of the right arm and the operation is performed with only one hand. When a typing operation (an operation of swinging down a finger) is performed hollow at intervals such as when the keyboard is actually operated, a key corresponding to each finger is input. Selection of key candidates that can be typed is performed by tilting the front, rear, left and right of the wrist. Also, the keyboard input can be switched between valid / invalid by moving the wrist up and down. A hollow typing operation is accepted as a key input only when enabled, and no finger operation is accepted as a key input when disabled. In addition, it is possible to reset the tilting state of the arm serving as the home position by this key input valid / invalid switching operation. Recognize each time the arm is tilted when it is switched from disabled to enabled as the home position.

図9は、本発明によるタイピング入力装置を接続したコンピュータの表示装置に表示させる提示画面の一例を示す図である。小型カメラによって撮影された手の映像を細線化、輪郭抽出した画像と、仮想のキーボードを可視化したものとを画面上部に提示する。仮想のキーボードのキー配列は、実際のキーボードと同じQWERTY配列(アルファベット部分)である。   FIG. 9 is a diagram showing an example of a presentation screen displayed on a display device of a computer connected with a typing input device according to the present invention. An image obtained by thinning and contour extraction of a hand image taken by a small camera and a virtual keyboard visualized are presented at the top of the screen. The key layout of the virtual keyboard is the same QWERTY layout (alphabet part) as the actual keyboard.

図10は、手首の傾きに応じた各指に割り当てられるキーの変化を説明する図である。この図に示す例において、手首の傾きを前後左右に変化させることで、人差し指、中指及び薬指の3本に割り当てられるキーを変化させる。親指と小指には、使用頻度が多いEnterやSpace、BackSpaceキー等の特殊キーを常に割り当てる。画面に表示されるキーボード画面において、そのときにタイプ可能なキーの候補を例えば青く着色して表示し、タイプされたキーを瞬間的に例えば黄色に光らせて反応させる。   FIG. 10 is a diagram for explaining a change in keys assigned to each finger according to the tilt of the wrist. In the example shown in this figure, the keys assigned to three of the index finger, the middle finger, and the ring finger are changed by changing the tilt of the wrist forward, backward, left and right. Special keys such as Enter, Space, and BackSpace keys that are frequently used are always assigned to the thumb and little finger. On the keyboard screen displayed on the screen, candidates for keys that can be typed at that time are displayed in blue, for example, and the typed keys are instantaneously illuminated in yellow, for example, to react.

図11は、入力文字種類変更の操作を説明する図である。Ca(CapsLock)キー及びSp(特殊文字)キーを押すことで、入力可能な文字の種類を変更することができる。   FIG. 11 is a diagram for explaining an operation for changing the input character type. By pressing the Ca (CapsLock) key and the Sp (special character) key, the types of characters that can be input can be changed.

ユーザの手の位置及び/又は傾きを検出する手段として、傾きを検出する傾斜センサ及び三軸センサを例として説明したが、他の種類のセンサによっても本発明は実施可能である。   As the means for detecting the position and / or inclination of the user's hand, the inclination sensor and the triaxial sensor for detecting inclination have been described as examples. However, the present invention can be implemented by other types of sensors.

本発明によるタイピング入力装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the typing input device by this invention. キー候補選択の動きを説明する図である。It is a figure explaining the movement of key candidate selection. 手領域を抽出し、指先を検出する処理を説明する流れ図である。It is a flowchart explaining the process which extracts a hand area | region and detects a fingertip. 指先の動きからタイピング動作を認識する処理を説明する流れ図である。It is a flowchart explaining the process which recognizes typing operation | movement from the motion of a fingertip. 図3に示す動作において処理される画像を示す図である。It is a figure which shows the image processed in the operation | movement shown in FIG. 下向きのアーチ上部分の探索を説明する図である。It is a figure explaining search of the downward arch upper part. ある時間内の五指の動きの一例を示すグラフである。It is a graph which shows an example of a movement of five fingers within a certain time. 本発明によるタイピング入力装置を接続したコンピュータの表示装置に表示させる提示画面の一例を示す図である。It is a figure which shows an example of the presentation screen displayed on the display apparatus of the computer which connected the typing input device by this invention. 手首の傾きに応じた各指に割り当てられるキーの変化を説明する図である。It is a figure explaining the change of the key allocated to each finger according to the inclination of a wrist. 入力文字種類変更の操作を説明する図である。It is a figure explaining operation of input character kind change.

符号の説明Explanation of symbols

1 タイピング入力装置
2 傾斜センサ
3 小型カメラ
4 赤外線照射光源
5 アームバンド

DESCRIPTION OF SYMBOLS 1 Typing input device 2 Tilt sensor 3 Small camera 4 Infrared irradiation light source 5 Armband

Claims (12)

ユーザの指を撮影するようにユーザの手首に取り付けられたカメラと、ユーザの手の位置及び/又は傾きを検出するセンサと、前記センサによって検出された情報から打鍵可能なキーを決定し、前記カメラによって撮影された画像からユーザの指先の位置をフレーム毎に検出し、検出された手の位置及び指先の位置に基づいて打鍵動作を検知する情報処理装置とを具えることを特徴とするタイピング入力装置。   A camera attached to the user's wrist so as to photograph the user's finger, a sensor for detecting the position and / or inclination of the user's hand, and a key that can be pressed from the information detected by the sensor; Typing comprising: an information processing device that detects a fingertip position of a user for each frame from an image photographed by a camera and detects a keystroke action based on the detected hand position and fingertip position. Input device. 請求項1に記載のタイピング入力装置において、前記センサが傾斜センサであることを特徴とするタイピング入力装置。   2. The typing input device according to claim 1, wherein the sensor is a tilt sensor. 請求項1に記載のタイピング入力装置において、前記センサが三軸センサであることを特徴とするタイピング入力装置。   2. The typing input device according to claim 1, wherein the sensor is a triaxial sensor. 請求項1から3のいずれか1項に記載のタイピング入力装置において、前記カメラが赤外線透過フィルタを具えることを特徴とするタイピング入力装置。   4. The typing input device according to claim 1, wherein the camera includes an infrared transmission filter. 請求項4に記載のタイピング入力装置において、ユーザの手に赤外線を照射する赤外線照射光源をさらに具えることを特徴とするタイピング入力装置。   5. The typing input device according to claim 4, further comprising an infrared irradiation light source for irradiating a user's hand with infrared rays. 請求項1から5のいずれか1項に記載のタイピング入力装置において、前記情報処理装置が、前記カメラによって撮影された画像をニ値化し、このニ値化した画像に輪郭線抽出及び細線化を行い、これらに基づいてユーザの指先の位置を検出することを特徴とするタイピング入力装置。   6. The typing input device according to claim 1, wherein the information processing device binarizes an image photographed by the camera, and performs contour line extraction and thinning on the binarized image. And a typing input device that detects the position of a user's fingertip based on the results. 請求項6に記載のタイピング入力装置において、前記情報処理装置が、前記細線化した画像において下向きの端点を指先として決定することを特徴とするタイピング入力装置。   The typing input device according to claim 6, wherein the information processing device determines a downward end point as a fingertip in the thinned image. 請求項6又は7に記載のタイピング入力装置において、前記情報処理装置が、前記輪郭抽出した画像において下向きのアーチ状になっている部分を探索し、一定区間内で最も下にある点を指先として決定することを特徴とするタイピング入力装置。   8. The typing input device according to claim 6 or 7, wherein the information processing device searches for a downward arched portion in the contour-extracted image, and uses the lowest point in a certain section as a fingertip. A typing input device characterized by determining. 請求項1から8のいずれか1項に記載のタイピング入力装置において、前記情報処理装置が、フレーム毎に検出された指先位置に基づいて、指先が急激に画面下方向に移動し、その指が移動した距離が他のすべての指が移動した距離より長く、移動した距離が一定距離以上であり、動き出してから止まるか運動方向が変化するまでの時間が一定時間以内であった場合、該指がタイピング動作を行ったと決定することを特徴とするタイピング入力装置。   The typing input device according to any one of claims 1 to 8, wherein the information processing device rapidly moves the fingertip downward in the screen based on the fingertip position detected for each frame. If the distance traveled is longer than the distance traveled by all other fingers, the distance traveled is equal to or greater than a certain distance, and the time from the start of movement until it stops or the direction of motion changes is within a certain time, It is determined that the typing operation has been performed. 請求項1から9のいずれか1項に記載のタイピング入力装置において、前記情報処理装置が、前記センサによって検出されたユーザの腕の傾きに応じて、各指に割り当てられるキー候補を変更することを特徴とするタイピング入力装置。   10. The typing input device according to claim 1, wherein the information processing device changes a key candidate assigned to each finger according to a tilt of a user's arm detected by the sensor. A typing input device. 請求項1から10のいずれか1項に記載のタイピング入力装置において、前記情報処理装置が、表示装置に仮想のキーボードを表示し、タイプされたキーの表示を変化させることを特徴とするタイピング入力装置。   The typing input device according to any one of claims 1 to 10, wherein the information processing device displays a virtual keyboard on a display device and changes a display of typed keys. apparatus. 請求項11に記載のタイピング入力装置において、前記情報処理装置が、前記仮想のキーボードにおいて、各指に割り当てられたキー候補を区別して表示することを特徴とするタイピング入力装置。   12. The typing input apparatus according to claim 11, wherein the information processing apparatus distinguishes and displays key candidates assigned to each finger on the virtual keyboard.
JP2004115619A 2004-04-09 2004-04-09 Typing input device Pending JP2005301583A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004115619A JP2005301583A (en) 2004-04-09 2004-04-09 Typing input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004115619A JP2005301583A (en) 2004-04-09 2004-04-09 Typing input device

Publications (1)

Publication Number Publication Date
JP2005301583A true JP2005301583A (en) 2005-10-27

Family

ID=35333052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004115619A Pending JP2005301583A (en) 2004-04-09 2004-04-09 Typing input device

Country Status (1)

Country Link
JP (1) JP2005301583A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008010581A1 (en) * 2006-07-21 2008-01-24 Brother Kogyo Kabushiki Kaisha Operation device and operation system
JP2008027252A (en) * 2006-07-21 2008-02-07 Brother Ind Ltd Operation signal output unit and operation system
JP2008287714A (en) * 2007-05-21 2008-11-27 Korea Advanced Inst Of Science & Technol Character input device using bio-radar and inclination sensor
JP2009141441A (en) * 2007-12-03 2009-06-25 Nec Corp Character input-functional operation device, method, program, and portable terminal
JP2010271978A (en) * 2009-05-22 2010-12-02 Nippon Telegr & Teleph Corp <Ntt> Behavior estimating device
JP2011237953A (en) * 2010-05-10 2011-11-24 Nec Corp User interface device
US8253685B2 (en) 2008-12-19 2012-08-28 Brother Kogyo Kabushiki Kaisha Head mount display
CN102693657A (en) * 2012-06-04 2012-09-26 大连职业技术学院 Automatic correcting device for piano-playing hand gestures
US8300025B2 (en) 2008-12-19 2012-10-30 Brother Kogyo Kabushiki Kaisha Head mount display
JP2014199673A (en) * 2014-06-23 2014-10-23 日本電気株式会社 User interface device
KR101559424B1 (en) 2014-10-10 2015-10-12 한국과학기술원 A virtual keyboard based on hand recognition and implementing method thereof
WO2016079774A1 (en) * 2014-11-21 2016-05-26 Johri Abhishek System and method for data and command input
WO2017113794A1 (en) * 2015-12-31 2017-07-06 北京体基科技有限公司 Gesture recognition method, control method and apparatus, and wrist-type device
WO2017113793A1 (en) * 2015-12-31 2017-07-06 北京体基科技有限公司 Method and apparatus for determining area of finger in image, and a wrist-type device
RU2765237C2 (en) * 2018-03-16 2022-01-27 Дмитрий Леонидович Раков Method for entering information and device for its implementation

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008010581A1 (en) * 2006-07-21 2008-01-24 Brother Kogyo Kabushiki Kaisha Operation device and operation system
JP2008027252A (en) * 2006-07-21 2008-02-07 Brother Ind Ltd Operation signal output unit and operation system
JP4736052B2 (en) * 2006-07-21 2011-07-27 ブラザー工業株式会社 Operation signal output device and operation system
JP2008287714A (en) * 2007-05-21 2008-11-27 Korea Advanced Inst Of Science & Technol Character input device using bio-radar and inclination sensor
JP2009141441A (en) * 2007-12-03 2009-06-25 Nec Corp Character input-functional operation device, method, program, and portable terminal
US8253685B2 (en) 2008-12-19 2012-08-28 Brother Kogyo Kabushiki Kaisha Head mount display
US8300025B2 (en) 2008-12-19 2012-10-30 Brother Kogyo Kabushiki Kaisha Head mount display
JP2010271978A (en) * 2009-05-22 2010-12-02 Nippon Telegr & Teleph Corp <Ntt> Behavior estimating device
JP2011237953A (en) * 2010-05-10 2011-11-24 Nec Corp User interface device
CN102693657A (en) * 2012-06-04 2012-09-26 大连职业技术学院 Automatic correcting device for piano-playing hand gestures
JP2014199673A (en) * 2014-06-23 2014-10-23 日本電気株式会社 User interface device
KR101559424B1 (en) 2014-10-10 2015-10-12 한국과학기술원 A virtual keyboard based on hand recognition and implementing method thereof
WO2016079774A1 (en) * 2014-11-21 2016-05-26 Johri Abhishek System and method for data and command input
US10705619B2 (en) 2014-11-21 2020-07-07 Abhishek Johri System and method for gesture based data and command input via a wearable device
WO2017113794A1 (en) * 2015-12-31 2017-07-06 北京体基科技有限公司 Gesture recognition method, control method and apparatus, and wrist-type device
WO2017113793A1 (en) * 2015-12-31 2017-07-06 北京体基科技有限公司 Method and apparatus for determining area of finger in image, and a wrist-type device
CN106933340A (en) * 2015-12-31 2017-07-07 北京体基科技有限公司 Gesture motion recognition methods, control method and device and wrist equipment
CN106933341A (en) * 2015-12-31 2017-07-07 北京体基科技有限公司 It is a kind of to determine the method in region, device and wrist equipment residing for finger in the picture
CN106933340B (en) * 2015-12-31 2024-04-26 北京体基科技有限公司 Gesture motion recognition method, control method and device and wrist type equipment
CN106933341B (en) * 2015-12-31 2024-04-26 北京体基科技有限公司 Method and device for determining region of finger in image and wrist type equipment
RU2765237C2 (en) * 2018-03-16 2022-01-27 Дмитрий Леонидович Раков Method for entering information and device for its implementation

Similar Documents

Publication Publication Date Title
US8693732B2 (en) Computer vision gesture based control of a device
KR101947034B1 (en) Apparatus and method for inputting of portable device
JP3785902B2 (en) Device, device control method, pointer movement method
US8290210B2 (en) Method and system for gesture recognition
US20110102570A1 (en) Vision based pointing device emulation
JP5412227B2 (en) Video display device and display control method thereof
JP2002196877A (en) Electronic equipment using image sensor
JP2005301583A (en) Typing input device
JPH0844490A (en) Interface device
WO2006036069A1 (en) Information processing system and method
WO2014045953A1 (en) Information processing device and method, and program
US20140053115A1 (en) Computer vision gesture based control of a device
JP2004246578A (en) Interface method and device using self-image display, and program
JP2004078977A (en) Interface device
CN113253908B (en) Key function execution method, device, equipment and storage medium
CN101853076A (en) Method for acquiring input information by input equipment
CN113282164A (en) Processing method and device
JP2000056916A (en) Hand pointing device
JP4972013B2 (en) Information presenting apparatus, information presenting method, information presenting program, and recording medium recording the program
JP5951966B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP2015122124A (en) Information apparatus with data input function by virtual mouse
JP2013200654A (en) Display control device, display control method, information display system, and program
Lee et al. Embodied interaction on constrained interfaces for augmented reality
JP5733056B2 (en) Data input method with virtual mouse
JP2009141441A (en) Character input-functional operation device, method, program, and portable terminal

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070329

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090616