JP2006323866A - データ入力方法 - Google Patents
データ入力方法 Download PDFInfo
- Publication number
- JP2006323866A JP2006323866A JP2006198794A JP2006198794A JP2006323866A JP 2006323866 A JP2006323866 A JP 2006323866A JP 2006198794 A JP2006198794 A JP 2006198794A JP 2006198794 A JP2006198794 A JP 2006198794A JP 2006323866 A JP2006323866 A JP 2006323866A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- projecting
- computer
- digital video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1662—Details related to the integrated keyboard
- G06F1/1673—Arrangements for projecting a virtual keyboard
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/033—Indexing scheme relating to G06F3/033
- G06F2203/0331—Finger worn pointing device
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Input From Keyboards Or The Like (AREA)
- Facsimile Scanning Arrangements (AREA)
- Measuring Fluid Pressure (AREA)
- Geophysics And Detection Of Objects (AREA)
Abstract
【課題】ユーザの移動を投影されたイメージに関連して検出するデータ入力方法を提供する。
【解決手段】電子デバイス10は、入力デバイスのイメージと、そのイメージとのユーザの相互作用を検出する走査センサ14、16、22とを使用して入力を受信する。例えば、マウスのイメージを投影し、そのイメージとのユーザの相互作用を、デジタルビデオカメラ14、16、22を使用して走査できる。そして、例えば、ユーザの移動の方向と、範囲と、速度とを決定して、ポインタ位置コマンド信号を提供するために、これらのユーザ動作イメージを分析できる。同様に、仮想キーボードイメージに関連するユーザの動作を分析し、活性化した仮想キーに応答するためのキー作動信号へと変換できる。
【選択図】 図1
【解決手段】電子デバイス10は、入力デバイスのイメージと、そのイメージとのユーザの相互作用を検出する走査センサ14、16、22とを使用して入力を受信する。例えば、マウスのイメージを投影し、そのイメージとのユーザの相互作用を、デジタルビデオカメラ14、16、22を使用して走査できる。そして、例えば、ユーザの移動の方向と、範囲と、速度とを決定して、ポインタ位置コマンド信号を提供するために、これらのユーザ動作イメージを分析できる。同様に、仮想キーボードイメージに関連するユーザの動作を分析し、活性化した仮想キーに応答するためのキー作動信号へと変換できる。
【選択図】 図1
Description
本発明は、一般には、コンピュータシステムを含む電子デバイスのための入力デバイス、特に、ビデオ制御入力を使用するようなデバイスに関する。
様々なポインティングデバイスが、コンピュータシステムにおいてディスプレイ上のポインタまたはカーソルの位置を制御するために使用されてきた。ポインタまたはカーソルは、ユーザインタフェース上の物理的な描写の形で与えられる特定の選択肢を選択するためにスクリーンを縦横にわたって移動可能なイメージである。このように、ユーザは、ユーザインタフェースを介して提供される特定のタスク及び作業にフォーカス(focus)を当てるようにビデオディスプレイを使用して相互作用できる。
周知のポインティングデバイスは、マウスと、トラックボールと、ポインティングスティックとを含む。これらすべてのデバイスは、一般に、故障しやすい電気機械的なインタフェースを含む。インタフェースが故障すると、ポインティングデバイスの動きをディスプレイのポインタ位置に間違って反映した不正確な信号を結果としてもたらすことがある。
タッチパッド型ポインティングデバイスといった別のよく知られたポインティングデバイスでは、ユーザが接触面に触れることができる。接触面上のユーザの指の動作は、コンピュータディスプレイ上のポインタの対応する動きとして追跡される。通常、タッチパッドは指の位置と動きを検出する容量センサ(capacitive sensors)を有し、その動きを位置制御信号へと変換する。
タッチパッド型ポインティングデバイスは、上述したような不正確な信号をもたらす汚れまたは湿気によって汚れやすい。さらに、タッチパッドデバイスは動きの度合いが制限されるため、そのポインティングデバイスを介して利用可能な制限された動きを使用してポインタの制御を学習するのは難しい。
多数のコンピュータシステムは、コンピュータにテキスト情報を入力するためのキーボードを使用する。キーボードは、一般に、ケーブルによってコンピュータに接続される。ポインティングデバイスと同様に、キーボードは故障しやすい電気機械的なインタフェースを含む。これらの故障によって、特定のキーが特定の入力を有効にできなくなる。いずれにせよ、キーボードに与えられる入力は、ディスプレイスクリーン上に現れるテキストに誤って反映されうる。
従って、より故障しにくい方法によってユーザが情報を入力できる改良された入力デバイスの必要性がある。
コンピュータシステムを含む多数の電子デバイスは、キーボードのような比較的に大きい入力デバイスを含む。例えば、ラップトップあるいはノートブック型コンピュータのような多くの携帯型コンピュータにおいては、ディスプレイは本質的に全筐体のある部分であり、キーボードはその他の部分であるような折り畳み式筐体が使用される。このように、キーボードはデバイスの全体的な大きさのかなりの部分を占める。同様に一部のパーソナル・ディジタルアシスタント(personal digital assistants:以下、「PDA」と呼ぶ。)あるいは手のひらサイズのコンピュータ(palm-sized computer)では、キーボードあるいはキーパッド型入力デバイスがデバイスの全体的な大きさのかなりの部分を占める。
常により小さい計算デバイスの需要がある。ラップトップあるいはノートブック型コンピュータのような携帯型コンピュータは次第に大きさが減少しつつある。同様に手のひらサイズあるいはPDAタイプのコンピュータシステムの関心が増大しつつある。
このように、コンピュータシステムを含む電子デバイスの大きさを減少するための新たな方法に対する継続的な需要がある。
電子デバイスにデータを入力するための本発明による方法は、表面上にイメージを投影することを含む。ユーザの移動をその投影されたイメージに関連して検出する。
図1に示すように、コンピュータシステム10として実現できる電子デバイスは、ディスプレイ18を含む筐体12を含みうる。従来のコンピュータシステムと異なり、システム10はキーボードまたはポインティングデバイスを備えていなくてよい。走査センサ14と16を、筐体12の正面の領域の走査を可能にするように延びたアーム26及び30上に提供できる。走査センサ14と16は、例えば、アーム26及び30に含まれるケーブルを経由して筐体12に導かれるストリーミングビデオを生成するデジタルカメラであってもよい。図2に示すように、追加の走査センサ22をディスプレイ18下の筐体12の前面上に提供できる。
筐体12上にはプロジェクタ20も配置され、このプロジェクタは、筐体12の正面に位置するデスクトップのように、イメージを表面上へと投影する。プロジェクタ20は、例えば、液晶ディスプレイ(liquid crystal display:以下、「LCD」と呼ぶ。)プロジェクタ、レーザプロジェクタあるいはテキサス・インスツルメンツ社(Texas Instruments, Inc.)のデジタル光処理(digital light processing:以下、「DLP」と呼ぶ。)光エンジンといった光エンジンプロジェクタでよい。イメージが投影される領域は、走査センサ14、16、22によって走査される同じ領域でよい。それぞれのスキャナを、より良い3次元的イメージングのために他のスキャナのそれぞれに対して横断的になるように配置できる。筐体12を、スタンド24によってある角度だけ傾いた状態に支持する。
本発明による一実施態様において、図3に示すような仮想のキーボード34a及びマウス34bといった1以上の入力デバイスを、筐体12の正面の表面上へと投影できる。しかしながら、本発明は、ここに例示された実施態様に限定されない。ユーザはあたかも実際のデバイスを使用しているかのようにそのイメージ上に自分の手を置くと、走査センサは、ユーザの手の動作を捕捉し、この動作を入力コマンド信号へと変換できる。例えば、マウスイメージ34bをその上に投影した表面上にわたるユーザの手の動作は、ディスプレイ18上でポインタの位置を移動させるためのポインタ位置信号に変換できる。同様に、キーボードイメージ34aをその上に投影した表面上にわたるユーザの手のタイピング動作(typing movements)によって、対応するテキスト入力を入力し、ディスプレイ18上に現れるようにできる。このように、電気機械的な入力デバイスを除去できる。
代わりに、走査センサはユーザの手から反射した投影光を感知できる。走査センサは反射した光及び投影した光の組合せとユーザの手を検出できる。同じく、投影したイメージはユーザの手の検出された動作に「追随する(follow)」ように動いてよい。
次に図4を参照すると、本発明による一実施態様を実現するためのコンピュータシステム35の一例は、ホストバス38に結合したプロセッサ36を含みうる。例示したコンピュータシステム35は、インテル・コーポレーション(IntelCorporation)から入手可能なPentium(登録商標)IIプロセッサを備えた440BXチップセットを含む。ホストバス38を、主記憶装置42をつなぐホストブリッジ(host bridge)40に結合する。ホストブリッジ40を、グラフィックデバイス50に結合する加速グラフィックポート(accelerated graphic port:以下、「AGP」と呼ぶ)バス48(米国カリフォルニア州サンタクララのインテル社によって、1996年7月31日に出版された加速グラフィックポートインタフェース仕様書第10版参照のこと)にも結合する。グラフィックデバイス50は走査センサ14、16、22からの入力を受信でき、グラフィックデバイス50に結合したディスプレイ18上にその結果生じる入力を表示できる。グラフィックデバイス50は、ビデオ標準入力/出力システム(BIOS(basic input/output system))54及びグラフィックスローカルメモリ56も備える。
ホストブリッジ40を、周辺機器デバイスを受け入れるための複数のスロット46を含みうるバス44にも結合する。バス44をバス・バス間ブリッジ(bus-to-bus bridge)58にも結合し、ブリッジ58を追加のバス70に結合する。バス70は、追加的な周辺機器デバイスを受け入れるための複数のスロット72とシステムBIOS74とを含む。ブリッジ58は複数のポート60と66にも結合できる。ポート60を、例えば、例示するように1以上のプログラム64、106、122を記憶しているハードディスクドライブ(HDD)62に結合できる。ポート66をプロジェクタ20に結合できる。
コンピュータシステムの一例を図4に示すが、当業者であれば、多数の他のシステムが上記目的を達成するために利用できることは理解されよう。それ故にここに示したシステムは単なる一例であることが理解されよう。
次に図5を参照すると、そこには上述した機能性を有するデバイスを実現するための本発明による方法の一実施態様を示している。最初に、ブロック76に示すように、システムはビデオ処理が可能である。例えば、コンピュータシステムは、複数のストリーミングビデオ入力を処理するための能力を備えうる。このシステムを、複数のデジタルカメラにも装備できる。プロジェクタは、ブロック78に示すように、入力デバイスのイメージを表面上に投影できる。例えば、ブロック80に示すように、ユーザの手に起因する動作のビデオ分析を提供する能力も備えうる。一実施態様によれば、このビデオ分析はユーザの手の形とその対応する動作を認識する従来のパターン認識ソフトウェアでよい。次に、ブロック82に示すように、投影したイメージに関連するユーザの動作をポインタ位置制御信号に変換する能力も提供できる。最後に、ブロック84に示すように、ユーザの動作をテキスト入力へと変換する能力を提供できる。さらに、キーをクリックする音といった音響確認を、キーストロークを認識するときに生成できる。
次に図6を参照すると、本発明による一実施態様においてソフトウェア64をハードディスクドライブ62上に記憶できる。最初に、そのソフトウェアによって1以上の入力デバイスのイメージを表面上へと投影する。例えば、ブロック86に示すように、キーボード及びマウスのイメージを投影できる。その後、ストリーミングビデオを受信でき(ブロック87)、ブロック88に示すように特定のビデオフレームを選択できる。そのフレームを、例えば、選択技術を使用してランダムあるいは一定間隔に選択できる。
さらに、場面変化検出器(scene change detector)が、場面に重大な変化が存在するときを決定するように使用できる。重大な場面変化が生じると、一つのフレームを次なる分析のために取り込みうる。場面変化検出器は当該分野において周知であり、1以上のカメラのイメージングアレイを形成するピクセルによって決定する強度信号のパターンを分析できる。例えば、種々なピクセルセンサが出力信号を提供できる。もし出力信号がある強さのレベルよりも上にあればそれは白と考えられ、もしあるレベルよりも下にあればそれは黒と考えられる。白対黒の出力信号の数における重大な変化を、ストリーミングビデオからあるフレームの選択を開始する場面変化として認識できる。
本発明はこの分析に対して単一フレームを使用するものとして説明されてきたが、継続的分析は、連続するフレームを継続的あるいは連続的に分析することによって実行できる。オーバーサンプリング(oversampling)を、動作を検出することを保証するために使用できる。
図6に示す実施態様において、ブロック88に示すようにフレームを選択すると、ブロック92に示すように従来のパターン認識ソフトウェアが、特定のイメージパターンをデジタルビデオデータストリームによって表現しているかどうか決定するために利用できる。このソフトウェアは、仮想キーボード上のユーザの指の位置あるいは仮想マウスの最上部のユーザの手の位置といった特定の事前にプログラムされたイメージを認識する。このソフトウェアは、そのイメージと以前に記録した描写とを比較することによって認識し、あるいは、そのソフトウェアは、学習ソフトウェアを使用してコンピュータの所有者またはユーザの協力によって、特定のイメージを学習するように訓練できる。
菱形94において、ソフトウェアは、選択したフレームが特定の入力コマンドに対応する所定のパターンにマッチするパターンを含んでいるかどうか決定するためにチェックする。もしそうでなければ(含んでいなければ)、手順の流れは別のフレームを選ぶために戻る。
もしパターンの一致を検出すると、ブロック96に示すように、最初と次のフレームを比較する。次に、その比較が位置の変化を示すかどうかを決定するためにチェックする(菱形98)。もし変化を示していれば、イメージの動きの速度及び方向を決定する(ブロック100)。その動きの速度及び/または方向を、対応するコマンド入力を提供するために使用できる。例えば、マウスイメージと関連するユーザの手の動作に関連して、動作の方向及び速度をディスプレイ18上の対応するポインタの動きに反映できる。例えば、ある一つの相関因子(correlation factor)を、「オンスクリーン(on screen)」ポインタの3次元的位置を計算するために使用できる(ブロック102)。ユーザ入力は、ユーザの手の動作の方向または速度に応じてディスプレイ18上にポインタを動かす(ブロック104)ためのグラフィックデバイス50への信号によって表現できる。流れのサイクルは、比較を始めるための新しいフレームを再度選択する(ブロック88)ように引き返す。
これに対して、識別可能な対象物をユーザに付随することにより、その対象物を容易に認識できる。例えば、容易に検出できる明瞭に色付けされたリングを使用してもよい。リングの動きはポインタ位置コマンドとして検出できる。
図7は、システムがポインタ位置コマンドに対するフォーカスポイントを較正可能にするためのソフトウェア106を示している。ソフトウェア106を、望ましい入力を認識するようにシステムをプログラムするための較正期間の間に使用できる。図7を参照すると、ブロック108に示すように、最初にストリーミングビデオを受信する。ブロック110に示すように、そのストリーミングビデオのフレームを取り込む。
次に、ブロック112に示すように、システムは、指定した方向への移動を手助けできる。例えば、オンスクリーン・ディスプレイは、ユーザが学習過程を経るように指導できる。例えば、オンスクリーン・ディスプレイは、最初にユーザに左のカーソル位置コマンドを示すよう指図できる。そして、シーケンスはカーソルコマンド方向のそれぞれについて反復する。システムはどんなカーソルコマンドをプログラムしているかをいったん知ると、ブロック114に示すように、それはビデオの新しいフレームを取り込みうる。新しいフレーム及び以前のフレームを比較し、所定のカーソルコマンドになる差分を決定する(ブロック116)。菱形118におけるチェックは、フォーカスポイントを識別していたかどうかを決定する。換言すれば、システムは、その後特定のポインタ位置コマンドとしてそれらの差を認知できるように十分に2つのフレームを区別できなければならない。もしそうでなければ、プロセスを再び試みる。その他の場合には、ブロック120に示すように、システムは、識別したフォーカスポイントのフォーカスポイントデータを保存する。
図8を参照すると、ソフトウェア122は、ポインタ位置コマンドの速度及び方向の較正を可能にする。ブロック123において、ソフトウェア106によって決定されたフォーカスポイントデータをロードする。ブロック124において示すようにストリーミングビデオを受信し、ブロック126に示すようにフレームを取り込む。ブロック128に示すようにフォーカスポイントをユーザの指として識別し、移動プロンプトを提供する(ブロック130)。そのプロンプトは、ユーザが望ましい動作として使用したいと思っているものを実施するようにユーザに要求するスクリーン上のメッセージブロックであってよい。ブロック132において新しい(次の)フレームを取り込み、ブロック134に示すように、ブロック126において取り込んだフレームと比較する。
フォーカスポイントの動きを識別し(ブロック136)、ブロック138に示すように、動きの方向及び速度を計算する。x、y、z方向の相関因子を、スクリーンポインタの動きの対応する速度及び方向を計算するために使用する(ブロック140)。そして、ブロック142に示すように、スクリーンポインタを動かす。そして、ブロック144に示すように、ユーザは、例えば、プロンプトスクリーンによって与えられる入力を通じて、ユーザの指の所定の動作に対してポインタの移動量を調整できる。さらに、ユーザは、特定のポインタ位置コマンドとして受信しうる代わりの入力を提供できる。そして、菱形146においてユーザが完了したかどうかを示すようにユーザを促す。もしそうでなければ、上述したように、流れのサイクル及び新しいコマンドを学習できる。それ以外の場合には、流れを終了し、情報をセーブする(ブロック148)。
使用できるカメラの数は、外部影響量による変動をかなり受けやすい。より多くのカメラが、より良い3次元イメージングをもたらす。これにより3次元における動作を入力コマンド信号として認識できる。さらに、余分なカメラをエラー除去に使用できる。
本発明をコンピュータ上に取り付けられた個別のカメラに関して説明してきたが、それらのカメラをコンピュータシステム自身の筐体内に統合化できる。さらに、本発明を可視スペクトルの光を感知するカメラに関連して説明してきたが、赤外線検出カメラも同様に使用できる。
入力情報を制御するためにストリーミングビデオを使うことによって、(エラーあるいは故障しやすいかもしれない)電気機械的な接続をいくつかの実施態様において除去できる。さらに、例えば、タッチパッド型ポインティングデバイスと比較すると、いくつかの実施態様において、汚れや湿気による誤作動の可能性を除去できるため、入力の精度を改善できる。
他の入力デバイスも同じ方法により処理できる。例えば、電話を、電話の投影したイメージに置き換えうる。受話器を握り、走査センサシステムによって認識される程度に持ち上げられると、コンピュータマイクロホンを作動できる。ダイアリングは、キーボードの投影イメージの動きに関連して上述した方法と同様の方法により処理できる。
投影イメージを、ユーザの手が通常の入力デバイス上にわたって置かれた状態でユーザが見る入力デバイスの一部に対応するように変更できる。この変更したイメージを、ユーザの手が投影イメージを受け取った表面上の位置にあるとして検出したときに生成できる。さらに、入力デバイスのイメージを、そのイメージを備えたユーザの相互作用に反映するため、それ自身に修正できる。例えば、指の動きがキーの凹部に一致すると、投影イメージを、仮想キーが動いたことを示唆するように変更できる。
本発明を限られた数の実施態様に関して記述してきたが、当業者であればそれらの多数の修正及び変更を理解されよう。本明細書の請求項は、本発明の真の精神と範囲を超えることなく、そのような全ての修正及び変更を含むことを意図している。
Claims (20)
- 表面上にイメージを投影するステップと、
該投影されたイメージに対するユーザの動作を検出するステップと
を含んでなる電子デバイスへのデータ入力方法。 - 前記投影されたイメージに関連する前記ユーザのデジタルビデオイメージを取り込み、前記電子デバイスに前記イメージの表現を入力するステップを更に含んでいる請求項1に記載の電子デバイスへのデータ入力方法。
- パターン認識ソフトウェアを使用して前記デジタルビデオイメージを分析するステップを更に含んでいる請求項2に記載の電子デバイスへのデータ入力方法。
- 前記デジタルビデオイメージにおいて描写された対象物の移動方向を決定するステップを更に含んでいる請求項3に記載の電子デバイスへのデータ入力方法。
- 前記イメージを投影するステップは、表面上にマウスのイメージを投影し、該マウスのイメージに対するユーザの動作を検出するステップを含んでいる請求項1に記載の電子デバイスへのデータ入力方法。
- 前記イメージを投影するステップは、キーボードのイメージを投影して、該キーボードのイメージに対するユーザの動作を検出するステップを含んでいる請求項1に記載の電子デバイスへのデータ入力方法。
- 前記イメージを投影するステップは、入力デバイスへイメージを投影するステップを含んでいる請求項1に記載の電子デバイスへのデータ入力方法。
- 表面上にイメージを投影する手段と、
該イメージに関連するユーザの動作を検出する手段と
を含んでいるコンピュータに実行させる命令を記憶するための記憶媒体を含む製品。 - パターン認識ソフトウェアを使用して、デジタルビデオストリームをコンピュータに分析させるための命令を更に含んでいる請求項8に記載の製品。
- 前記デジタルビデオストリームに描写された対象物の移動方向をコンピュータに決定させるための命令を更に含んでいる請求項9に記載の製品。
- 表面上にマウスのイメージを投影させ、該マウスのイメージに関連するユーザの動作をコンピュータに検出させるための命令を含んでいる請求項8に記載の製品。
- キーボードのイメージを投影させ、該キーボードのイメージに関連するユーザの動作をコンピュータに検出させるための命令を含んでいる請求項8に記載の製品。
- 入力デバイスのイメージをコンピュータに投影させるための命令を含んでいる請求項8に記載の製品。
- プロセッサと、
該プロセッサに結合したセンサと、
該プロセッサに結合したプロジェクタと、
該プロセッサに付随するメモリと
を含んでなり、該メモリは、コンピュータプログラムを記憶しており、該コンピュータプログラムは、該プロセッサに、
前記プロジェクタを使用して入力デバイスのイメージを投影させ、
前記センサを使用して前記入力デバイスのイメージに関連するユーザの動作を検出させるシステム。 - 複数のデジタルビデオカメラを含んでいる請求項14に記載のシステム。
- 前記プログラムは、ユーザの動作に応答してポインタの位置を制御する請求項14に記載のシステム。
- 前記システムがコンピュータシステムである請求項14に記載のシステム。
- 前記メモリはパターン認識ソフトウェアを含んでいる請求項14に記載のシステム。
- 前記プロジェクタが、ポインティングデバイスのイメージを投影する請求項14に記載のシステム。
- 前記プロジェクタが、キーボードのイメージを投影する請求項14に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16781498A | 1998-10-07 | 1998-10-07 | |
US09/187,903 US6690357B1 (en) | 1998-10-07 | 1998-11-06 | Input device using scanning sensors |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000575075A Division JP2002526867A (ja) | 1998-10-07 | 1999-08-26 | データ入力方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006323866A true JP2006323866A (ja) | 2006-11-30 |
Family
ID=26863501
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000575075A Withdrawn JP2002526867A (ja) | 1998-10-07 | 1999-08-26 | データ入力方法 |
JP2006198794A Pending JP2006323866A (ja) | 1998-10-07 | 2006-07-20 | データ入力方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000575075A Withdrawn JP2002526867A (ja) | 1998-10-07 | 1999-08-26 | データ入力方法 |
Country Status (9)
Country | Link |
---|---|
EP (1) | EP1127332B1 (ja) |
JP (2) | JP2002526867A (ja) |
CN (1) | CN1322329B (ja) |
AT (1) | ATE255745T1 (ja) |
AU (1) | AU6240499A (ja) |
CA (1) | CA2344352C (ja) |
DE (1) | DE69913371T2 (ja) |
TW (1) | TW464800B (ja) |
WO (1) | WO2000021024A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009123006A (ja) * | 2007-11-15 | 2009-06-04 | Funai Electric Co Ltd | プロジェクタ |
KR100907286B1 (ko) * | 2007-11-26 | 2009-07-13 | (주)디앤티 | 프로젝션 키보드를 이용한 마우스 포인터 제어 방법 |
JP2013178767A (ja) * | 2013-02-25 | 2013-09-09 | Funai Electric Co Ltd | プロジェクタ |
WO2015116157A3 (en) * | 2014-01-31 | 2015-12-03 | Hewlett-Packard Development Company, L.P. | Display unit manager |
Families Citing this family (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2361146A (en) * | 2000-02-04 | 2001-10-10 | Roke Manor Research | User interface for a mobile telecommunications system |
IL136434A0 (en) * | 2000-05-29 | 2001-06-14 | Gal Moshe Ein | Wireless cursor control |
IL136432A0 (en) * | 2000-05-29 | 2001-06-14 | Vkb Ltd | Data input device |
USRE40368E1 (en) * | 2000-05-29 | 2008-06-10 | Vkb Inc. | Data input device |
US6650318B1 (en) | 2000-10-13 | 2003-11-18 | Vkb Inc. | Data input device |
KR100865598B1 (ko) | 2000-05-29 | 2008-10-27 | 브이케이비 인코포레이티드 | 수문자 조합 및 다른 데이터의 입력을 위한 가상 데이터입력 장치 및 방법 |
FI112706B (fi) * | 2000-06-28 | 2003-12-31 | Nokia Corp | Menetelmä ja järjestely tiedon syöttämiseksi elektroniseen laitteeseen ja elektroninen laite |
JP2004513416A (ja) * | 2000-09-07 | 2004-04-30 | カネスタ インコーポレイテッド | ユーザオブジェクトと仮想転送装置との相互作用を検出しそして位置決めする擬似三次元方法及び装置 |
TR200002828A3 (tr) * | 2000-09-29 | 2002-05-21 | Cetin Yasemin | Bilgisayarli Yapay Görmeye Dayali Kablosuz ve Antensiz Klavye Cihazi. |
FI113094B (fi) * | 2000-12-15 | 2004-02-27 | Nokia Corp | Parannettu menetelmä ja järjestely toiminnon aikaansaamiseksi elektronisessa laitteessa ja elektroninen laite |
JP2002196877A (ja) * | 2000-12-25 | 2002-07-12 | Hitachi Ltd | イメージセンサを用いた電子機器 |
US7242388B2 (en) | 2001-01-08 | 2007-07-10 | Vkb Inc. | Data input device |
GB2374266A (en) * | 2001-04-04 | 2002-10-09 | Matsushita Comm Ind Uk Ltd | Virtual user interface device |
JP2003152851A (ja) * | 2001-11-14 | 2003-05-23 | Nec Corp | 携帯端末装置 |
AU2002362085A1 (en) * | 2001-12-07 | 2003-07-09 | Canesta Inc. | User interface for electronic devices |
US6977643B2 (en) | 2002-01-10 | 2005-12-20 | International Business Machines Corporation | System and method implementing non-physical pointers for computer devices |
US7071924B2 (en) | 2002-01-10 | 2006-07-04 | International Business Machines Corporation | User input method and apparatus for handheld computers |
WO2003071410A2 (en) | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US10242255B2 (en) | 2002-02-15 | 2019-03-26 | Microsoft Technology Licensing, Llc | Gesture recognition system using depth perceptive sensors |
US7307661B2 (en) | 2002-06-26 | 2007-12-11 | Vbk Inc. | Multifunctional integrated image sensor and application to virtual interface technology |
US7151530B2 (en) | 2002-08-20 | 2006-12-19 | Canesta, Inc. | System and method for determining an input selected by a user through a virtual interface |
US6654001B1 (en) | 2002-09-05 | 2003-11-25 | Kye Systems Corp. | Hand-movement-sensing input device |
DE50308437D1 (de) | 2003-02-03 | 2007-11-29 | Siemens Ag | Projektion von synthetischer information |
JP2005095407A (ja) * | 2003-09-25 | 2005-04-14 | Samii Kk | 遊技機 |
JP2005095405A (ja) * | 2003-09-25 | 2005-04-14 | Samii Kk | 遊技機 |
GB0414578D0 (en) | 2004-06-30 | 2004-08-04 | Ncr Int Inc | Self-service terminal |
CN100410857C (zh) * | 2005-01-27 | 2008-08-13 | 时代光电科技股份有限公司 | 资料输入装置 |
US8009871B2 (en) | 2005-02-08 | 2011-08-30 | Microsoft Corporation | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
WO2006090386A2 (en) | 2005-02-24 | 2006-08-31 | Vkb Inc. | A virtual keyboard device |
CN100367159C (zh) * | 2005-04-04 | 2008-02-06 | 技嘉科技股份有限公司 | 虚拟键盘 |
US7616191B2 (en) * | 2005-04-18 | 2009-11-10 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Electronic device and method for simplifying text entry using a soft keyboard |
US8037414B2 (en) | 2006-09-14 | 2011-10-11 | Avaya Inc. | Audible computer user interface method and apparatus |
DE102007055204B4 (de) * | 2007-11-19 | 2010-04-08 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Roboter, medizinischer Arbeitsplatz und Verfahren zum Projizieren eines Bildes auf die Oberfläche eines Objekts |
DE102008001629A1 (de) * | 2008-05-07 | 2009-11-12 | Robert Bosch Gmbh | Projektionsmittel umfassende Vorrichtung |
CN101650520A (zh) | 2008-08-15 | 2010-02-17 | 索尼爱立信移动通讯有限公司 | 移动电话的可视激光触摸板和方法 |
CN101729652A (zh) * | 2008-10-31 | 2010-06-09 | 深圳富泰宏精密工业有限公司 | 具有多媒体功能的便携式电子装置 |
GB2466023A (en) | 2008-12-08 | 2010-06-09 | Light Blue Optics Ltd | Holographic Image Projection Systems |
JP5347673B2 (ja) | 2009-04-14 | 2013-11-20 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP5740822B2 (ja) | 2010-03-04 | 2015-07-01 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN102893293A (zh) * | 2010-03-12 | 2013-01-23 | 莎法·瓦拉 | 位置捕获输入设备、系统及其方法 |
HK1147905A2 (en) * | 2010-06-30 | 2011-08-19 | Chi Ching Lee | System and method for virtual touch sensing |
CN102402277B (zh) * | 2010-09-16 | 2014-11-05 | 联想(北京)有限公司 | 电子终端及信息输入处理方法 |
US8839134B2 (en) * | 2010-12-24 | 2014-09-16 | Intel Corporation | Projection interface techniques |
WO2012119308A1 (en) * | 2011-03-09 | 2012-09-13 | Nokia Corporation | An apparatus and method for remote user input |
CN102546935A (zh) * | 2011-12-20 | 2012-07-04 | 上海电机学院 | 利用光反射光感应的投影手机 |
CN103391480B (zh) * | 2013-07-15 | 2017-11-28 | Tcl集团股份有限公司 | 一种向电视机输入字符的方法及系统 |
JP2015079169A (ja) * | 2013-10-18 | 2015-04-23 | 増田 麻言 | 投影装置 |
WO2015162722A1 (ja) * | 2014-04-23 | 2015-10-29 | 日立マクセル株式会社 | 映像投写装置 |
US9841847B2 (en) | 2014-12-25 | 2017-12-12 | Panasonic Intellectual Property Management Co., Ltd. | Projection device and projection method, for projecting a first image based on a position of a moving object and a second image without depending on the position |
TWI717199B (zh) * | 2020-01-21 | 2021-01-21 | 台灣骨王生技股份有限公司 | 醫療手術用控制系統及方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0554492B1 (en) * | 1992-02-07 | 1995-08-09 | International Business Machines Corporation | Method and device for optical input of commands or data |
EP0829799A3 (en) * | 1992-05-26 | 1998-08-26 | Takenaka Corporation | Wall computer module |
US5436639A (en) * | 1993-03-16 | 1995-07-25 | Hitachi, Ltd. | Information processing system |
DE19612949C1 (de) * | 1996-04-01 | 1997-08-14 | Siemens Ag | Verfahren zur Erkennung mindestens eines fingerförmigen Objekts in einem ersten, handförmigen Objekt durch einen Rechner |
JP3749369B2 (ja) * | 1997-03-21 | 2006-02-22 | 株式会社竹中工務店 | ハンドポインティング装置 |
DE29802435U1 (de) * | 1998-02-12 | 1998-05-07 | Siemens Nixdorf Inf Syst | Anordnung der Projektionsfläche einer virtuellen Eingabeeinheit |
-
1999
- 1999-07-12 TW TW088111779A patent/TW464800B/zh not_active IP Right Cessation
- 1999-08-26 JP JP2000575075A patent/JP2002526867A/ja not_active Withdrawn
- 1999-08-26 AU AU62404/99A patent/AU6240499A/en not_active Abandoned
- 1999-08-26 CA CA002344352A patent/CA2344352C/en not_active Expired - Fee Related
- 1999-08-26 DE DE69913371T patent/DE69913371T2/de not_active Expired - Lifetime
- 1999-08-26 EP EP99949557A patent/EP1127332B1/en not_active Expired - Lifetime
- 1999-08-26 WO PCT/US1999/019598 patent/WO2000021024A1/en active IP Right Grant
- 1999-08-26 AT AT99949557T patent/ATE255745T1/de not_active IP Right Cessation
- 1999-08-26 CN CN99811860.5A patent/CN1322329B/zh not_active Expired - Fee Related
-
2006
- 2006-07-20 JP JP2006198794A patent/JP2006323866A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009123006A (ja) * | 2007-11-15 | 2009-06-04 | Funai Electric Co Ltd | プロジェクタ |
KR100907286B1 (ko) * | 2007-11-26 | 2009-07-13 | (주)디앤티 | 프로젝션 키보드를 이용한 마우스 포인터 제어 방법 |
JP2013178767A (ja) * | 2013-02-25 | 2013-09-09 | Funai Electric Co Ltd | プロジェクタ |
WO2015116157A3 (en) * | 2014-01-31 | 2015-12-03 | Hewlett-Packard Development Company, L.P. | Display unit manager |
TWI566169B (zh) * | 2014-01-31 | 2017-01-11 | 惠普發展公司有限責任合夥企業 | 管理顯示單元之方法、電腦可讀媒體及相關系統 |
Also Published As
Publication number | Publication date |
---|---|
CN1322329A (zh) | 2001-11-14 |
JP2002526867A (ja) | 2002-08-20 |
EP1127332A1 (en) | 2001-08-29 |
TW464800B (en) | 2001-11-21 |
ATE255745T1 (de) | 2003-12-15 |
DE69913371D1 (de) | 2004-01-15 |
CN1322329B (zh) | 2010-06-02 |
EP1127332B1 (en) | 2003-12-03 |
AU6240499A (en) | 2000-04-26 |
DE69913371T2 (de) | 2004-05-27 |
WO2000021024A1 (en) | 2000-04-13 |
CA2344352A1 (en) | 2000-04-13 |
CA2344352C (en) | 2005-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006323866A (ja) | データ入力方法 | |
KR100896745B1 (ko) | 스캐닝 센서를 사용한 입력 디바이스 | |
US9778752B2 (en) | Systems and methods for machine control | |
US8957864B2 (en) | Coordinate input apparatus and method | |
US20070018966A1 (en) | Predicted object location | |
US7342574B1 (en) | Method and apparatus for inputting information including coordinate data | |
US20110006991A1 (en) | Image Processing for Camera Based Motion Tracking | |
US7737959B2 (en) | Position detection system using laser speckle | |
JP5133507B2 (ja) | 複合追跡システムの方法および装置 | |
US20090027335A1 (en) | Free-Space Pointing and Handwriting | |
US20040095315A1 (en) | Virtual holographic input method and device | |
JP2006509269A (ja) | データを入力するための装置及び方法 | |
US20030085877A1 (en) | Passive optical mouse using image sensor with optional dual mode capability | |
JPH0895551A (ja) | 画像表示装置 | |
US10691219B2 (en) | Systems and methods for machine control | |
US6738041B2 (en) | Using video information to control cursor position | |
CN101869484A (zh) | 具有触摸屏的医疗诊断装置及其操控方法 | |
JP3804212B2 (ja) | 情報入力装置 | |
US20220350417A1 (en) | Systems and methods for machine control | |
JP3355708B2 (ja) | コマンド処理装置 | |
KR20110083621A (ko) | 터치 패널 장치 | |
US20050088425A1 (en) | Pen mouse | |
KR101943097B1 (ko) | 가상 특징점을 이용한 이미지 정합 방법 및 그 시스템 | |
KR101911676B1 (ko) | 지시체의 움직임을 고려한 프리젠테이션 영상 처리장치 및 방법 | |
US20110102376A1 (en) | Image-Based Coordinate Input Apparatus and Method Utilizing Buffered Imates |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080425 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090130 |