JP2003076495A - Virtual input device - Google Patents

Virtual input device

Info

Publication number
JP2003076495A
JP2003076495A JP2001262679A JP2001262679A JP2003076495A JP 2003076495 A JP2003076495 A JP 2003076495A JP 2001262679 A JP2001262679 A JP 2001262679A JP 2001262679 A JP2001262679 A JP 2001262679A JP 2003076495 A JP2003076495 A JP 2003076495A
Authority
JP
Japan
Prior art keywords
input device
image
recognition camera
virtual input
gradation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001262679A
Other languages
Japanese (ja)
Inventor
Kuniko Chiba
邦子 千葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2001262679A priority Critical patent/JP2003076495A/en
Publication of JP2003076495A publication Critical patent/JP2003076495A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a virtual input device with excellent portability and operability. SOLUTION: This virtual input device draws an image on a screen 2 with a projection part 3 and an operation key in the virtual input device is selected by touching an indicating means 5 such as an indicating rod or a finger. This selection is determined by a CPU 1 from the image data of a recognition camera 4 focusing on the screen 2 whether the indicating means 5 or the finger is focused or not, and thus the selected operation key is identified.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、情報端末装置や携
帯電話機などにおける入力装置として使用する仮想入力
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a virtual input device used as an input device in an information terminal device, a mobile phone or the like.

【0002】[0002]

【従来の技術】一般に、PC等の情報端末装置における
入力装置としてキーボードとマウスが知られており、文
字入力を行なう場合にはキーボードを用いるのが主流で
ある。この入力装置は、複数のキーを配置したパネルを
有し、そのキーを押すことにより情報を入力するように
している。また携帯電話機では、パネルに数字のボタン
を配置し、それらのボタンに文字を割り付け、そのキー
を複数回押下するなどして文字入力を行なうようにして
いる。
2. Description of the Related Art Generally, a keyboard and a mouse are known as input devices in an information terminal device such as a PC, and the keyboard is mainly used for inputting characters. This input device has a panel in which a plurality of keys are arranged, and information is input by pressing the keys. In addition, in a mobile phone, numeric buttons are arranged on a panel, characters are assigned to those buttons, and characters are input by pressing the key a plurality of times.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
情報端末装置における入力装置は、信号線を介して接続
した表示装置の近傍に配置し、その表示装置を見ながら
入力を行なう構成であり、表示装置との関係を考慮しな
がら入力装置の大きさを比較的自由に選定できることか
ら操作性の良いものとすることができるが、その反面、
携帯性に劣る。一方、携帯性に優れた携帯電話機は、次
世代のインターネット閲覧装置となりつつある今日であ
るが、同一数字のキーを何回も押すことにより文字入力
を行なうため操作性に劣る。
However, the input device in the conventional information terminal device is arranged in the vicinity of the display device connected through the signal line, and the input is made while observing the display device. Although the size of the input device can be selected relatively freely considering the relationship with the device, it is possible to improve the operability, but on the other hand,
Poor portability. On the other hand, a mobile phone having excellent portability is becoming the next-generation Internet browsing device today, but it is inferior in operability because a character is input by pressing a key of the same number many times.

【0004】本発明の目的は、携帯性および操作性に優
れた仮想入力装置を提供するにある。
An object of the present invention is to provide a virtual input device excellent in portability and operability.

【0005】[0005]

【課題を解決するための手段】本発明は上記目的を達成
するために、入力装置からの入力情報に基づいて電気機
器を作動する仮想入力装置において、上記入力装置の映
像を仮想的に作り出す投影部と、この映像に焦点を合わ
せた認識カメラと、上記映像の一部に接触した指示手段
を含む上記認識カメラによる画像データを解析して上記
指示手段による選択部を特定するCPUとから構成した
ことを特徴とする。
In order to achieve the above object, the present invention is a virtual input device for operating an electric device based on input information from the input device, and a projection for virtually creating an image of the input device. Section, a recognition camera focusing on this image, and a CPU that analyzes the image data from the recognition camera including the instruction means that is in contact with a part of the image and specifies the selection section by the instruction means. It is characterized by

【0006】本発明による仮想入力装置は、投影部によ
って仮想的に入力装置の映像を描き出し、この映像の所
定の位置に指示手段で接触したとき、この映像に焦点を
合わせた認識カメラの画像データからCPUで指示手段
による選択部を特定するようにしたため、従来の情報端
末装置における入力装置のように、表示装置に信号線を
介して接続する必要はなく、全体を小型にして携帯性を
向上することができると共に、従来の携帯電話機のよう
に同じボタンを何度を押して文字を選択する必要がなく
取り扱い性および操作性に優れたものとすることができ
る。
In the virtual input device according to the present invention, the image of the input device is virtually drawn by the projection unit, and when a predetermined position of the image is touched by the pointing means, the image data of the recognition camera focused on the image. Since the CPU identifies the selection unit by the instruction means, unlike the input device in the conventional information terminal device, it is not necessary to connect to the display device through the signal line, and the entire size is reduced to improve portability. Moreover, unlike the conventional mobile phone, it is not necessary to press the same button many times to select a character, and the handleability and operability can be improved.

【0007】[0007]

【発明の実施の形態】以下、本発明の実施の形態を図面
に基づいて説明する。図1は、本発明の一実施の形態に
よる仮想入力装置を示す斜視図である。仮想入力装置
は、CPU1からの画像データに基づく映像を所定のス
クリーン2に表示する投影部3と、スクリーン2上の映
像に焦点を合わせて画像データをCPU1に取り込む認
識カメラ4とを備えており、このCPU1は認識カメラ
4によってスクリーン2上から指示棒等の指示手段5を
含む画像データを取り込み、詳細を後述する解析処理に
よって操作されたキーを特定するようにしている。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a perspective view showing a virtual input device according to an embodiment of the present invention. The virtual input device includes a projection unit 3 that displays an image based on the image data from the CPU 1 on a predetermined screen 2, and a recognition camera 4 that focuses the image on the screen 2 and takes the image data into the CPU 1. The CPU 1 takes in image data including an indicating means 5 such as an indicating stick from the screen 2 by the recognition camera 4, and identifies a key operated by an analysis process which will be described in detail later.

【0008】図2および図3は、スクリーン2上に映し
出された仮想入力装置の映像の要部を示す拡大図であ
る。投影部3よりスクリーン2上に映し出された仮想入
力装置は、スイッチAなどの操作キー6とスイッチBな
どの操作キー7を有している。先ず、認識カメラ4はス
クリーン2上の映像に焦点を合わせ、その映像を取り込
んでCPU1へ入力している。
2 and 3 are enlarged views showing a main part of an image of the virtual input device displayed on the screen 2. As shown in FIG. The virtual input device projected on the screen 2 from the projection unit 3 has operation keys 6 such as a switch A and operation keys 7 such as a switch B. First, the recognition camera 4 focuses on the image on the screen 2, captures the image, and inputs it to the CPU 1.

【0009】次に、図3に示すようにスクリーン2上の
操作キー6を指示手段5の先端で触れて操作したとす
る。この指示手段5として指で触れた場合も同様であ
る。このとき認識カメラ4は、操作キー6,7および指
示手段5のどちらも撮影するが、認識カメラ4がスクリ
ーン2に焦点を合わせているため、指示手段5の先端が
スクリーン2から離れていると、指示手段5における先
端の輪郭に焦点が合わない。つまり、目で見ればぼやけ
ているような感じに見える。しかし、指示手段5の先端
がスクリーン2に接触すると認識カメラ4の焦点が合う
ようになる。
Next, as shown in FIG. 3, it is assumed that the operation key 6 on the screen 2 is operated by touching it with the tip of the indicating means 5. The same applies when a finger is used as the indicating means 5. At this time, the recognition camera 4 photographs both the operation keys 6 and 7 and the instruction means 5, but since the recognition camera 4 is focused on the screen 2, the tip of the instruction means 5 is away from the screen 2. , The outline of the tip of the pointing means 5 is out of focus. In other words, it looks visually blurred. However, when the tip of the pointing means 5 contacts the screen 2, the recognition camera 4 comes into focus.

【0010】認識カメラ4で取得した指示手段5の焦点
が合っている場合、画素で見たときにその境界部分がは
っきりと線として表示され、それに対して焦点が合って
いない場合、境界部分の色がにじむ。画素単位で見ると
色の階調がグラデーションのようになり、その境界は線
ではなく幅広くにじんだ状態となる。
When the pointing means 5 acquired by the recognition camera 4 is in focus, the boundary portion is clearly displayed as a line when viewed from a pixel, and when it is out of focus, the boundary portion The color is blurred. When viewed on a pixel-by-pixel basis, the gradation of color becomes like a gradation, and the boundary is not a line but a broadly blurred state.

【0011】図4および図5は、このときの指示手段5
の先端のイメージを拡大した画素の正面図であり、図3
は焦点が合っていない場合、図4は焦点が合っている場
合を示している。画素1ピットに対して1つの色があ
り、色調は数値で表示できる。図3に示すように焦点が
合っていない場合、指示手段5の輪郭部で徐々に色調数
が減少してグラデーションになっているのが分かる。こ
れに対して、図5に示すように焦点が合っている場合
は、段階的に色調数が減ることはなく急激に変化する。
4 and 5 show the indicating means 5 at this time.
3 is a front view of a pixel obtained by enlarging the image of the tip of FIG.
Shows the case where it is not in focus, and FIG. 4 shows the case where it is in focus. There is one color for one pixel pit, and the color tone can be displayed numerically. As shown in FIG. 3, when it is out of focus, it can be seen that the number of color tones gradually decreases in the contour portion of the indicating means 5 to form a gradation. On the other hand, when the image is in focus as shown in FIG. 5, the number of color tones does not decrease stepwise but changes rapidly.

【0012】図8は、上述した色調変化を利用して指示
手段5の先端が接触して選定された操作キーをCPU1
で解析処理して特定するときの動作を示すフローチャー
トである。先ず、ステップS1で認識カメラ4によるス
クリーン2の画像データをCPU1においてX方向およ
びY方向にスキャンし、ステップS2でその結果を画素
毎の色の階調として記憶する。指示手段5をX方向にス
キャンすると、焦点が合っていない場合の階調の推移は
図6に示すようになる。つまり、横軸をX方向、縦軸を
色の階調とすると、色の階調が段階的に何度か変化す
る。これに対して、焦点が合っている場合の階調の推移
は図7に示すようになる。つまり、横軸をX方向、縦軸
を色の階調とすると、色の階調が一度大きく変化するだ
けである。
In FIG. 8, the operation key selected by contacting the tip of the indicating means 5 by utilizing the above-mentioned color tone change is selected by the CPU 1
6 is a flowchart showing the operation when the analysis processing is performed to identify the object. First, in step S1, the image data of the screen 2 by the recognition camera 4 is scanned by the CPU 1 in the X and Y directions, and in step S2 the result is stored as the gradation of the color for each pixel. When the indicating means 5 is scanned in the X direction, the gradation transition when the focus is not achieved is as shown in FIG. That is, when the horizontal axis is the X direction and the vertical axis is the color gradation, the color gradation changes stepwise several times. On the other hand, the gradation transition when the focus is achieved is as shown in FIG. That is, when the horizontal axis is the X direction and the vertical axis is the color gradation, the color gradation only changes once.

【0013】次いで、ステップS3でこの色の階調にグ
ラデーションがあるかどうかを判定し、グラデーション
がある場合、ステップS4で指示手段5がスクリーン2
から離れていると判定し、一方、グラデーションがない
場合、ステップS5で指示手段5がスクリーン2と接触
していると判定する。この指示手段5がスクリーン2に
接触していると判定したとき、上述したX方向およびY
方向の色の階調変化部と、投影部3から映し出している
画像データと合わせて指示手段5の先端位置を割り出
し、その位置の操作キー6が操作されたと判断する。
Next, in step S3, it is determined whether or not there is gradation in the gradation of this color. If there is gradation, the instructing means 5 causes the screen 2 to display in step S4.
On the other hand, when there is no gradation, it is determined that the instruction means 5 is in contact with the screen 2 in step S5. When it is determined that the indicating means 5 is in contact with the screen 2, the X direction and the Y direction described above are obtained.
The tip position of the instruction means 5 is determined by combining the direction gradation change portion and the image data projected from the projection portion 3, and it is determined that the operation key 6 at that position has been operated.

【0014】このように机や壁や専用のスクリーン2上
に投影部3によって仮想的に入力装置の映像を描き出
し、この映像における操作キーを指示手段5が触れるよ
うにし、この選択をスクリーン2上に焦点を合わせた認
識カメラ4の画像データから指示手段5に焦点が合って
いるか否かをCPU1で判定して、選択したキーを確定
するようにしたため、従来の情報端末装置における入力
装置のように、表示装置に信号線を介して接続する必要
はなく、携帯性を向上することができると共に、取り扱
いも容易になる。また仮想入力装置の大きさもある程度
任意に設定することができるので、操作性に優れたもの
とすることができる。
In this way, the image of the input device is virtually drawn by the projection unit 3 on the desk, wall, or dedicated screen 2, and the operation keys in this image are touched by the instructing means 5, and this selection is made on the screen 2. Since the CPU 1 determines whether the instructing means 5 is in focus from the image data of the recognition camera 4 in which the selected key is in focus, and the selected key is confirmed, it is like an input device in a conventional information terminal device. In addition, it is not necessary to connect to the display device via a signal line, so that portability can be improved and handling becomes easy. Further, since the size of the virtual input device can be set to a certain degree, the operability can be improved.

【0015】しかもCPUによる解析は、認識カメラ4
による画像データを色の階調変化から解析し指示手段に
よる選択部を特定するようにし、より具体的には、認識
カメラ4による画像データを色の階調変化から解析し、
指示手段の境界における色の階調のグラデーションがな
いとき、色の階調の変化部を指示手段による選択部とし
て特定するようにしているため、指示手段による画像の
選択部を高い精度で判定することができる。
Moreover, the analysis by the CPU is performed by the recognition camera 4
To analyze the image data by the color tone change and specify the selection unit by the instructing means. More specifically, the image data by the recognition camera 4 is analyzed from the color tone change,
When there is no gradation of color gradation at the boundary of the instructing means, the changing part of the color gradation is specified as the selecting section by the instructing means, so that the selecting section of the image by the instructing means is determined with high accuracy. be able to.

【0016】図9は、本発明に他の実施の形態による仮
想入力装置を示す斜視図であり、携帯電話機用入力装置
に適用したものである。携帯電話機に先の実施の形態の
場合と同様に適当な平面に仮想的に入力装置の映像を描
く投影部3と、この映像に焦点を合わせた認識カメラ4
を設け、本体内に認識カメラ4からの画像データを解析
処理するCPUを配置している。入力が必要な場合、投
影部3からキーボード8の映像を机や適当なスクリーン
など平らな面に写し、このキーボード8の映像の操作キ
ーに指先などの指示手段で接触して入力を行なう。
FIG. 9 is a perspective view showing a virtual input device according to another embodiment of the present invention, which is applied to a mobile phone input device. As in the case of the previous embodiment, the projection unit 3 that virtually draws the image of the input device on a suitable plane of the mobile phone and the recognition camera 4 that focuses on this image.
And a CPU for analyzing image data from the recognition camera 4 is arranged in the main body. When input is required, the image of the keyboard 8 is projected from the projection unit 3 onto a flat surface such as a desk or an appropriate screen, and the operation key of the image of the keyboard 8 is brought into contact with an instruction means such as a fingertip for input.

【0017】この接触は先の実施の形態の場合と同様に
キーボード8に焦点を合わせた認識カメラ4を用い、図
2から図8で説明したように認識カメラ4からの画像デ
ータから指先などの指示手段の焦点が合っているかどう
かをCPUで解析し、仮想的な入力装置の画像データと
から指示手段によって選定した操作キーを特定するよう
にしている。このCPUによる解析は、先の実施の形態
と同様に認識カメラ4による画像データを色の階調変化
から解析し指示手段による選択部を特定するようにし、
より具体的には、認識カメラ4による画像データを色の
階調変化から解析し、指示手段の境界における色の階調
のグラデーションがないとき、色の階調の変化部を指示
手段による選択部として特定するようにしている。
As in the case of the previous embodiment, this contact uses the recognition camera 4 focused on the keyboard 8, and as described with reference to FIGS. 2 to 8, the image data from the recognition camera 4 is used to detect a fingertip or the like. The CPU analyzes whether or not the pointing means is in focus, and specifies the operation key selected by the pointing means from the image data of the virtual input device. In the analysis by the CPU, the image data by the recognition camera 4 is analyzed from the gradation change of the color as in the previous embodiment, and the selection unit by the instructing unit is specified.
More specifically, the image data from the recognition camera 4 is analyzed from the color gradation change, and when there is no color gradation gradation at the boundary of the instruction means, the color gradation change part is selected by the instruction means. I am trying to identify as.

【0018】このような構成の携帯電話機によれば、数
字のボタンを配置したキーパネル9と、表示部10と、
最初の電源スイッチを有していれば良く、従来のように
数字のボタンに文字を割り付けて同じボタンを何度も押
す必要がなくなり、省スペース化を図って小型の携帯電
話機を実現することができる。携帯電話機での入力時に
使用するキーボード8の映像は、かばんの上でも机の上
でも必要なときに映せば良く、さらに数字キーに無理に
文字を割り付けることもない。従って、通常の情報端末
装置で使い慣れたキーボード8の映像を描き出し、この
映像のキーボード8による入力ができるので便利であ
る。
According to the mobile phone having such a structure, the key panel 9 in which the numeric buttons are arranged, the display section 10,
Since it is only necessary to have the first power switch, it is not necessary to allocate letters to number buttons and press the same button many times as in the past, and it is possible to realize a compact mobile phone by saving space. it can. The image of the keyboard 8 used for inputting on the mobile phone may be displayed on the bag or on the desk when necessary, and characters are not forcibly assigned to the numeric keys. Therefore, it is convenient because it is possible to draw out the image of the keyboard 8 that is familiar to an ordinary information terminal device and input the image using the keyboard 8.

【0019】尚、上述した仮想入力装置は、情報端末装
置および携帯電話機に限らず電子レンジなどのパネルキ
ーの入力装置として使用することもできる。
The virtual input device described above can be used not only as an information terminal device and a mobile phone, but also as an input device for a panel key of a microwave oven or the like.

【0020】[0020]

【発明の効果】以上説明したように本発明の仮想入力装
置は、従来の情報端末装置における入力装置のように表
示装置に信号線を介して接続する必要はなくなり、全体
を小型にして携帯性を向上することができると共に、ス
クリーン上に映し出すので携帯電話機のようにボタンを
何度も押して文字を選択する必要がないので取り扱い性
および操作性に優れたものとすることができる。
As described above, the virtual input device of the present invention does not need to be connected to the display device via the signal line like the input device in the conventional information terminal device, and the whole is made compact and portable. Since it is displayed on the screen, it is not necessary to repeatedly press a button to select a character, unlike a mobile phone, so that the handleability and operability can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施の形態による仮想入力装置の斜
視図である。
FIG. 1 is a perspective view of a virtual input device according to an embodiment of the present invention.

【図2】図1に示したスクリーンの拡大図である。FIG. 2 is an enlarged view of the screen shown in FIG.

【図3】図1に示したスクリーンの他の状態を示す拡大
図である。
FIG. 3 is an enlarged view showing another state of the screen shown in FIG.

【図4】図3に示した指示手段に焦点が合っていない場
合の色の階調変化を示す画素の正面図である。
FIG. 4 is a front view of a pixel showing a gradation change of color when the instruction unit shown in FIG. 3 is out of focus.

【図5】図3に示した指示手段に焦点が合っている場合
の色の階調変化を示す画素の正面図である。
FIG. 5 is a front view of a pixel showing a gradation change of color when the instruction unit shown in FIG. 3 is in focus.

【図6】図3に示した指示手段に焦点が合っていない場
合のスクリーンをX軸方向にスキャンしたときの色の階
調変化を示す特性図である。
FIG. 6 is a characteristic diagram showing a change in color gradation when the screen is scanned in the X-axis direction when the instructing means shown in FIG. 3 is out of focus.

【図7】図3に示した指示手段に焦点が合っている場合
のスクリーンをX軸方向にスキャンしたときの色の階調
変化を示す特性図である。
FIG. 7 is a characteristic diagram showing a change in color gradation when the screen is scanned in the X-axis direction when the instructing means shown in FIG. 3 is in focus.

【図8】図1に示した仮想入力装置における動作の一部
を示すフローチャートである。
FIG. 8 is a flowchart showing a part of the operation of the virtual input device shown in FIG.

【図9】この装置を携帯電話機に応用した場合の斜視図
である。
FIG. 9 is a perspective view when this device is applied to a mobile phone.

【符号の説明】[Explanation of symbols]

1 CPU 2 スクリーン 3 投影部 4 認識カメラ 5 指示手段 1 CPU 2 screen 3 Projector 4 recognition camera 5 Instruction means

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B020 CC06 CC12 DD04 FF55 5B068 AA05 BD02 BE15 CC06 CC12 CC19 EE03 5B087 AA06 AA09 AB02 BC03 BC12 BC13 BC32 CC09 CC33 DE02 DG02    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 5B020 CC06 CC12 DD04 FF55                 5B068 AA05 BD02 BE15 CC06 CC12                       CC19 EE03                 5B087 AA06 AA09 AB02 BC03 BC12                       BC13 BC32 CC09 CC33 DE02                       DG02

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 入力装置からの入力情報に基づいて電気
機器を作動する仮想入力装置において、上記入力装置の
映像を仮想的に作り出す投影部と、この映像に焦点を合
わせた認識カメラと、上記映像の一部に接触した指示手
段を含む上記認識カメラによる画像データを解析して上
記指示手段による選択部を特定するCPUとから構成し
たことを特徴とする仮想入力装置。
1. A virtual input device that operates an electric device based on input information from the input device, a projection unit that virtually creates an image of the input device, a recognition camera that focuses the image, and A virtual input device comprising: a CPU that analyzes image data from the recognition camera including an instruction unit that contacts a part of an image and specifies a selection unit by the instruction unit.
【請求項2】 請求項1記載のものにおいて、上記CP
Uは、上記認識カメラによる画像データを色の階調変化
から解析し上記指示手段による選択部を特定するように
構成したことを特徴とする仮想入力装置。
2. The CP according to claim 1, wherein
The virtual input device U is configured to analyze the image data from the recognition camera from the change in color gradation and to specify the selection unit by the instruction means.
【請求項3】 請求項1記載のものにおいて、上記CP
Uは、上記認識カメラによる画像データを色の階調変化
から解析し、上記指示手段の境界における色の階調のグ
ラデーションがないとき、色の階調の変化部を上記指示
手段による選択部として特定するように構成したことを
特徴とする仮想入力装置。
3. The one according to claim 1, wherein the CP
U analyzes the image data obtained by the recognition camera from the change of color gradation, and when there is no gradation of color gradation at the boundary of the instruction means, the change part of color gradation is used as a selection section by the instruction means. A virtual input device characterized by being configured to specify.
JP2001262679A 2001-08-31 2001-08-31 Virtual input device Pending JP2003076495A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001262679A JP2003076495A (en) 2001-08-31 2001-08-31 Virtual input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001262679A JP2003076495A (en) 2001-08-31 2001-08-31 Virtual input device

Publications (1)

Publication Number Publication Date
JP2003076495A true JP2003076495A (en) 2003-03-14

Family

ID=19089535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001262679A Pending JP2003076495A (en) 2001-08-31 2001-08-31 Virtual input device

Country Status (1)

Country Link
JP (1) JP2003076495A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006038577A1 (en) * 2004-10-05 2006-04-13 Nikon Corporation Electronic device
JP2007013306A (en) * 2005-06-28 2007-01-18 Nippon Soft Kaihatsu Kk Remote control method and remote control device
JP2008171086A (en) * 2007-01-09 2008-07-24 Toshiba It & Control Systems Corp On-site check navigation system
JP2009223490A (en) * 2008-03-14 2009-10-01 Shimizu Corp Virtual switch, and household electric appliance control system and method using same
US8366541B2 (en) 2007-01-05 2013-02-05 Bally Gaming, Inc. Gaming machine with virtual user interface
WO2012087768A3 (en) * 2010-12-24 2013-03-14 Intel Corporation Projection interface techniques
US8933880B2 (en) 2011-01-13 2015-01-13 Panasonic Intellectual Property Management Co., Ltd. Interactive presentation system
KR101549461B1 (en) 2009-07-03 2015-09-02 엘지전자 주식회사 Electronic Device And Method Of Performing Function Using Same
JP2015179491A (en) * 2014-03-18 2015-10-08 富士ゼロックス株式会社 System and method for enabling gesture control based on detection of occlusion pattern

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8330714B2 (en) 2004-10-05 2012-12-11 Nikon Corporation Electronic device
JPWO2006038577A1 (en) * 2004-10-05 2008-05-15 株式会社ニコン Electronic apparatus having a projector device
WO2006038577A1 (en) * 2004-10-05 2006-04-13 Nikon Corporation Electronic device
JP2007013306A (en) * 2005-06-28 2007-01-18 Nippon Soft Kaihatsu Kk Remote control method and remote control device
JP4589828B2 (en) * 2005-06-28 2010-12-01 日本ソフト開発株式会社 Remote control method and remote control apparatus thereof
US8366541B2 (en) 2007-01-05 2013-02-05 Bally Gaming, Inc. Gaming machine with virtual user interface
JP2008171086A (en) * 2007-01-09 2008-07-24 Toshiba It & Control Systems Corp On-site check navigation system
JP2009223490A (en) * 2008-03-14 2009-10-01 Shimizu Corp Virtual switch, and household electric appliance control system and method using same
KR101549461B1 (en) 2009-07-03 2015-09-02 엘지전자 주식회사 Electronic Device And Method Of Performing Function Using Same
WO2012087768A3 (en) * 2010-12-24 2013-03-14 Intel Corporation Projection interface techniques
US8839134B2 (en) 2010-12-24 2014-09-16 Intel Corporation Projection interface techniques
US8933880B2 (en) 2011-01-13 2015-01-13 Panasonic Intellectual Property Management Co., Ltd. Interactive presentation system
JP2015179491A (en) * 2014-03-18 2015-10-08 富士ゼロックス株式会社 System and method for enabling gesture control based on detection of occlusion pattern

Similar Documents

Publication Publication Date Title
JP5429250B2 (en) Portable information terminal
JP2004213269A (en) Character input device
US9122316B2 (en) Enabling data entry based on differentiated input objects
US6603462B2 (en) System and method for selecting functions based on a finger feature such as a fingerprint
JP5977627B2 (en) Information processing apparatus, information processing method, and program
KR100703771B1 (en) Apparatus and method for displaying input panel
US20080042983A1 (en) User input device and method using fingerprint recognition sensor
JP2004054589A (en) Information display input device and method, and information processor
JP2004310219A (en) Information processor operated in touch panel mode and pointing device mode
JPH0683512A (en) Method and device for inputting command and data
CN107272881B (en) Information input method and device, input method keyboard and electronic equipment
US20150091804A1 (en) Technique for improving operability in switching character types in software keyboard
JPWO2010047339A1 (en) Touch panel device that operates as if the detection area is smaller than the display area of the display.
JP2000194469A (en) Item display controller
JP2003076495A (en) Virtual input device
JP4082352B2 (en) Mobile phone, display control method for mobile phone, and program thereof
US20110037731A1 (en) Electronic device and operating method thereof
US7594190B2 (en) Apparatus and method for user interfacing
JP2012175486A (en) Portable terminal device
US20080186281A1 (en) Device having display buttons and display method and medium for the device
KR20150071597A (en) Device for data execution
KR20080097563A (en) Keyboard system and operating method thereof
CN210109772U (en) Touch control display device
KR100640402B1 (en) Portable terminal capable of variably displaying in difference area with screen electronic touch interfaces window according to input interface mode
TWI464635B (en) Portable electronic device and control method of the same