JP2006323866A - データ入力方法 - Google Patents

データ入力方法 Download PDF

Info

Publication number
JP2006323866A
JP2006323866A JP2006198794A JP2006198794A JP2006323866A JP 2006323866 A JP2006323866 A JP 2006323866A JP 2006198794 A JP2006198794 A JP 2006198794A JP 2006198794 A JP2006198794 A JP 2006198794A JP 2006323866 A JP2006323866 A JP 2006323866A
Authority
JP
Japan
Prior art keywords
image
user
projecting
computer
digital video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006198794A
Other languages
English (en)
Inventor
Randy Dunton
ダントン,ランディ
Thomas Charlesworth
チャールズワース,トーマス
John Richardson
リチャードソン,ジョン
Kelan Silvester
シルヴェスター,キーラン
Marion Shimoda
シモダ,マリオン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US09/187,903 external-priority patent/US6690357B1/en
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2006323866A publication Critical patent/JP2006323866A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • G06F1/1673Arrangements for projecting a virtual keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0331Finger worn pointing device

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Measuring Fluid Pressure (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

【課題】ユーザの移動を投影されたイメージに関連して検出するデータ入力方法を提供する。
【解決手段】電子デバイス10は、入力デバイスのイメージと、そのイメージとのユーザの相互作用を検出する走査センサ14、16、22とを使用して入力を受信する。例えば、マウスのイメージを投影し、そのイメージとのユーザの相互作用を、デジタルビデオカメラ14、16、22を使用して走査できる。そして、例えば、ユーザの移動の方向と、範囲と、速度とを決定して、ポインタ位置コマンド信号を提供するために、これらのユーザ動作イメージを分析できる。同様に、仮想キーボードイメージに関連するユーザの動作を分析し、活性化した仮想キーに応答するためのキー作動信号へと変換できる。
【選択図】 図1

Description

本発明は、一般には、コンピュータシステムを含む電子デバイスのための入力デバイス、特に、ビデオ制御入力を使用するようなデバイスに関する。
様々なポインティングデバイスが、コンピュータシステムにおいてディスプレイ上のポインタまたはカーソルの位置を制御するために使用されてきた。ポインタまたはカーソルは、ユーザインタフェース上の物理的な描写の形で与えられる特定の選択肢を選択するためにスクリーンを縦横にわたって移動可能なイメージである。このように、ユーザは、ユーザインタフェースを介して提供される特定のタスク及び作業にフォーカス(focus)を当てるようにビデオディスプレイを使用して相互作用できる。
周知のポインティングデバイスは、マウスと、トラックボールと、ポインティングスティックとを含む。これらすべてのデバイスは、一般に、故障しやすい電気機械的なインタフェースを含む。インタフェースが故障すると、ポインティングデバイスの動きをディスプレイのポインタ位置に間違って反映した不正確な信号を結果としてもたらすことがある。
タッチパッド型ポインティングデバイスといった別のよく知られたポインティングデバイスでは、ユーザが接触面に触れることができる。接触面上のユーザの指の動作は、コンピュータディスプレイ上のポインタの対応する動きとして追跡される。通常、タッチパッドは指の位置と動きを検出する容量センサ(capacitive sensors)を有し、その動きを位置制御信号へと変換する。
タッチパッド型ポインティングデバイスは、上述したような不正確な信号をもたらす汚れまたは湿気によって汚れやすい。さらに、タッチパッドデバイスは動きの度合いが制限されるため、そのポインティングデバイスを介して利用可能な制限された動きを使用してポインタの制御を学習するのは難しい。
多数のコンピュータシステムは、コンピュータにテキスト情報を入力するためのキーボードを使用する。キーボードは、一般に、ケーブルによってコンピュータに接続される。ポインティングデバイスと同様に、キーボードは故障しやすい電気機械的なインタフェースを含む。これらの故障によって、特定のキーが特定の入力を有効にできなくなる。いずれにせよ、キーボードに与えられる入力は、ディスプレイスクリーン上に現れるテキストに誤って反映されうる。
従って、より故障しにくい方法によってユーザが情報を入力できる改良された入力デバイスの必要性がある。
コンピュータシステムを含む多数の電子デバイスは、キーボードのような比較的に大きい入力デバイスを含む。例えば、ラップトップあるいはノートブック型コンピュータのような多くの携帯型コンピュータにおいては、ディスプレイは本質的に全筐体のある部分であり、キーボードはその他の部分であるような折り畳み式筐体が使用される。このように、キーボードはデバイスの全体的な大きさのかなりの部分を占める。同様に一部のパーソナル・ディジタルアシスタント(personal digital assistants:以下、「PDA」と呼ぶ。)あるいは手のひらサイズのコンピュータ(palm-sized computer)では、キーボードあるいはキーパッド型入力デバイスがデバイスの全体的な大きさのかなりの部分を占める。
常により小さい計算デバイスの需要がある。ラップトップあるいはノートブック型コンピュータのような携帯型コンピュータは次第に大きさが減少しつつある。同様に手のひらサイズあるいはPDAタイプのコンピュータシステムの関心が増大しつつある。
このように、コンピュータシステムを含む電子デバイスの大きさを減少するための新たな方法に対する継続的な需要がある。
電子デバイスにデータを入力するための本発明による方法は、表面上にイメージを投影することを含む。ユーザの移動をその投影されたイメージに関連して検出する。
図1に示すように、コンピュータシステム10として実現できる電子デバイスは、ディスプレイ18を含む筐体12を含みうる。従来のコンピュータシステムと異なり、システム10はキーボードまたはポインティングデバイスを備えていなくてよい。走査センサ14と16を、筐体12の正面の領域の走査を可能にするように延びたアーム26及び30上に提供できる。走査センサ14と16は、例えば、アーム26及び30に含まれるケーブルを経由して筐体12に導かれるストリーミングビデオを生成するデジタルカメラであってもよい。図2に示すように、追加の走査センサ22をディスプレイ18下の筐体12の前面上に提供できる。
筐体12上にはプロジェクタ20も配置され、このプロジェクタは、筐体12の正面に位置するデスクトップのように、イメージを表面上へと投影する。プロジェクタ20は、例えば、液晶ディスプレイ(liquid crystal display:以下、「LCD」と呼ぶ。)プロジェクタ、レーザプロジェクタあるいはテキサス・インスツルメンツ社(Texas Instruments, Inc.)のデジタル光処理(digital light processing:以下、「DLP」と呼ぶ。)光エンジンといった光エンジンプロジェクタでよい。イメージが投影される領域は、走査センサ14、16、22によって走査される同じ領域でよい。それぞれのスキャナを、より良い3次元的イメージングのために他のスキャナのそれぞれに対して横断的になるように配置できる。筐体12を、スタンド24によってある角度だけ傾いた状態に支持する。
本発明による一実施態様において、図3に示すような仮想のキーボード34a及びマウス34bといった1以上の入力デバイスを、筐体12の正面の表面上へと投影できる。しかしながら、本発明は、ここに例示された実施態様に限定されない。ユーザはあたかも実際のデバイスを使用しているかのようにそのイメージ上に自分の手を置くと、走査センサは、ユーザの手の動作を捕捉し、この動作を入力コマンド信号へと変換できる。例えば、マウスイメージ34bをその上に投影した表面上にわたるユーザの手の動作は、ディスプレイ18上でポインタの位置を移動させるためのポインタ位置信号に変換できる。同様に、キーボードイメージ34aをその上に投影した表面上にわたるユーザの手のタイピング動作(typing movements)によって、対応するテキスト入力を入力し、ディスプレイ18上に現れるようにできる。このように、電気機械的な入力デバイスを除去できる。
代わりに、走査センサはユーザの手から反射した投影光を感知できる。走査センサは反射した光及び投影した光の組合せとユーザの手を検出できる。同じく、投影したイメージはユーザの手の検出された動作に「追随する(follow)」ように動いてよい。
次に図4を参照すると、本発明による一実施態様を実現するためのコンピュータシステム35の一例は、ホストバス38に結合したプロセッサ36を含みうる。例示したコンピュータシステム35は、インテル・コーポレーション(IntelCorporation)から入手可能なPentium(登録商標)IIプロセッサを備えた440BXチップセットを含む。ホストバス38を、主記憶装置42をつなぐホストブリッジ(host bridge)40に結合する。ホストブリッジ40を、グラフィックデバイス50に結合する加速グラフィックポート(accelerated graphic port:以下、「AGP」と呼ぶ)バス48(米国カリフォルニア州サンタクララのインテル社によって、1996年7月31日に出版された加速グラフィックポートインタフェース仕様書第10版参照のこと)にも結合する。グラフィックデバイス50は走査センサ14、16、22からの入力を受信でき、グラフィックデバイス50に結合したディスプレイ18上にその結果生じる入力を表示できる。グラフィックデバイス50は、ビデオ標準入力/出力システム(BIOS(basic input/output system))54及びグラフィックスローカルメモリ56も備える。
ホストブリッジ40を、周辺機器デバイスを受け入れるための複数のスロット46を含みうるバス44にも結合する。バス44をバス・バス間ブリッジ(bus-to-bus bridge)58にも結合し、ブリッジ58を追加のバス70に結合する。バス70は、追加的な周辺機器デバイスを受け入れるための複数のスロット72とシステムBIOS74とを含む。ブリッジ58は複数のポート60と66にも結合できる。ポート60を、例えば、例示するように1以上のプログラム64、106、122を記憶しているハードディスクドライブ(HDD)62に結合できる。ポート66をプロジェクタ20に結合できる。
コンピュータシステムの一例を図4に示すが、当業者であれば、多数の他のシステムが上記目的を達成するために利用できることは理解されよう。それ故にここに示したシステムは単なる一例であることが理解されよう。
次に図5を参照すると、そこには上述した機能性を有するデバイスを実現するための本発明による方法の一実施態様を示している。最初に、ブロック76に示すように、システムはビデオ処理が可能である。例えば、コンピュータシステムは、複数のストリーミングビデオ入力を処理するための能力を備えうる。このシステムを、複数のデジタルカメラにも装備できる。プロジェクタは、ブロック78に示すように、入力デバイスのイメージを表面上に投影できる。例えば、ブロック80に示すように、ユーザの手に起因する動作のビデオ分析を提供する能力も備えうる。一実施態様によれば、このビデオ分析はユーザの手の形とその対応する動作を認識する従来のパターン認識ソフトウェアでよい。次に、ブロック82に示すように、投影したイメージに関連するユーザの動作をポインタ位置制御信号に変換する能力も提供できる。最後に、ブロック84に示すように、ユーザの動作をテキスト入力へと変換する能力を提供できる。さらに、キーをクリックする音といった音響確認を、キーストロークを認識するときに生成できる。
次に図6を参照すると、本発明による一実施態様においてソフトウェア64をハードディスクドライブ62上に記憶できる。最初に、そのソフトウェアによって1以上の入力デバイスのイメージを表面上へと投影する。例えば、ブロック86に示すように、キーボード及びマウスのイメージを投影できる。その後、ストリーミングビデオを受信でき(ブロック87)、ブロック88に示すように特定のビデオフレームを選択できる。そのフレームを、例えば、選択技術を使用してランダムあるいは一定間隔に選択できる。
さらに、場面変化検出器(scene change detector)が、場面に重大な変化が存在するときを決定するように使用できる。重大な場面変化が生じると、一つのフレームを次なる分析のために取り込みうる。場面変化検出器は当該分野において周知であり、1以上のカメラのイメージングアレイを形成するピクセルによって決定する強度信号のパターンを分析できる。例えば、種々なピクセルセンサが出力信号を提供できる。もし出力信号がある強さのレベルよりも上にあればそれは白と考えられ、もしあるレベルよりも下にあればそれは黒と考えられる。白対黒の出力信号の数における重大な変化を、ストリーミングビデオからあるフレームの選択を開始する場面変化として認識できる。
本発明はこの分析に対して単一フレームを使用するものとして説明されてきたが、継続的分析は、連続するフレームを継続的あるいは連続的に分析することによって実行できる。オーバーサンプリング(oversampling)を、動作を検出することを保証するために使用できる。
図6に示す実施態様において、ブロック88に示すようにフレームを選択すると、ブロック92に示すように従来のパターン認識ソフトウェアが、特定のイメージパターンをデジタルビデオデータストリームによって表現しているかどうか決定するために利用できる。このソフトウェアは、仮想キーボード上のユーザの指の位置あるいは仮想マウスの最上部のユーザの手の位置といった特定の事前にプログラムされたイメージを認識する。このソフトウェアは、そのイメージと以前に記録した描写とを比較することによって認識し、あるいは、そのソフトウェアは、学習ソフトウェアを使用してコンピュータの所有者またはユーザの協力によって、特定のイメージを学習するように訓練できる。
菱形94において、ソフトウェアは、選択したフレームが特定の入力コマンドに対応する所定のパターンにマッチするパターンを含んでいるかどうか決定するためにチェックする。もしそうでなければ(含んでいなければ)、手順の流れは別のフレームを選ぶために戻る。
もしパターンの一致を検出すると、ブロック96に示すように、最初と次のフレームを比較する。次に、その比較が位置の変化を示すかどうかを決定するためにチェックする(菱形98)。もし変化を示していれば、イメージの動きの速度及び方向を決定する(ブロック100)。その動きの速度及び/または方向を、対応するコマンド入力を提供するために使用できる。例えば、マウスイメージと関連するユーザの手の動作に関連して、動作の方向及び速度をディスプレイ18上の対応するポインタの動きに反映できる。例えば、ある一つの相関因子(correlation factor)を、「オンスクリーン(on screen)」ポインタの3次元的位置を計算するために使用できる(ブロック102)。ユーザ入力は、ユーザの手の動作の方向または速度に応じてディスプレイ18上にポインタを動かす(ブロック104)ためのグラフィックデバイス50への信号によって表現できる。流れのサイクルは、比較を始めるための新しいフレームを再度選択する(ブロック88)ように引き返す。
これに対して、識別可能な対象物をユーザに付随することにより、その対象物を容易に認識できる。例えば、容易に検出できる明瞭に色付けされたリングを使用してもよい。リングの動きはポインタ位置コマンドとして検出できる。
図7は、システムがポインタ位置コマンドに対するフォーカスポイントを較正可能にするためのソフトウェア106を示している。ソフトウェア106を、望ましい入力を認識するようにシステムをプログラムするための較正期間の間に使用できる。図7を参照すると、ブロック108に示すように、最初にストリーミングビデオを受信する。ブロック110に示すように、そのストリーミングビデオのフレームを取り込む。
次に、ブロック112に示すように、システムは、指定した方向への移動を手助けできる。例えば、オンスクリーン・ディスプレイは、ユーザが学習過程を経るように指導できる。例えば、オンスクリーン・ディスプレイは、最初にユーザに左のカーソル位置コマンドを示すよう指図できる。そして、シーケンスはカーソルコマンド方向のそれぞれについて反復する。システムはどんなカーソルコマンドをプログラムしているかをいったん知ると、ブロック114に示すように、それはビデオの新しいフレームを取り込みうる。新しいフレーム及び以前のフレームを比較し、所定のカーソルコマンドになる差分を決定する(ブロック116)。菱形118におけるチェックは、フォーカスポイントを識別していたかどうかを決定する。換言すれば、システムは、その後特定のポインタ位置コマンドとしてそれらの差を認知できるように十分に2つのフレームを区別できなければならない。もしそうでなければ、プロセスを再び試みる。その他の場合には、ブロック120に示すように、システムは、識別したフォーカスポイントのフォーカスポイントデータを保存する。
図8を参照すると、ソフトウェア122は、ポインタ位置コマンドの速度及び方向の較正を可能にする。ブロック123において、ソフトウェア106によって決定されたフォーカスポイントデータをロードする。ブロック124において示すようにストリーミングビデオを受信し、ブロック126に示すようにフレームを取り込む。ブロック128に示すようにフォーカスポイントをユーザの指として識別し、移動プロンプトを提供する(ブロック130)。そのプロンプトは、ユーザが望ましい動作として使用したいと思っているものを実施するようにユーザに要求するスクリーン上のメッセージブロックであってよい。ブロック132において新しい(次の)フレームを取り込み、ブロック134に示すように、ブロック126において取り込んだフレームと比較する。
フォーカスポイントの動きを識別し(ブロック136)、ブロック138に示すように、動きの方向及び速度を計算する。x、y、z方向の相関因子を、スクリーンポインタの動きの対応する速度及び方向を計算するために使用する(ブロック140)。そして、ブロック142に示すように、スクリーンポインタを動かす。そして、ブロック144に示すように、ユーザは、例えば、プロンプトスクリーンによって与えられる入力を通じて、ユーザの指の所定の動作に対してポインタの移動量を調整できる。さらに、ユーザは、特定のポインタ位置コマンドとして受信しうる代わりの入力を提供できる。そして、菱形146においてユーザが完了したかどうかを示すようにユーザを促す。もしそうでなければ、上述したように、流れのサイクル及び新しいコマンドを学習できる。それ以外の場合には、流れを終了し、情報をセーブする(ブロック148)。
使用できるカメラの数は、外部影響量による変動をかなり受けやすい。より多くのカメラが、より良い3次元イメージングをもたらす。これにより3次元における動作を入力コマンド信号として認識できる。さらに、余分なカメラをエラー除去に使用できる。
本発明をコンピュータ上に取り付けられた個別のカメラに関して説明してきたが、それらのカメラをコンピュータシステム自身の筐体内に統合化できる。さらに、本発明を可視スペクトルの光を感知するカメラに関連して説明してきたが、赤外線検出カメラも同様に使用できる。
入力情報を制御するためにストリーミングビデオを使うことによって、(エラーあるいは故障しやすいかもしれない)電気機械的な接続をいくつかの実施態様において除去できる。さらに、例えば、タッチパッド型ポインティングデバイスと比較すると、いくつかの実施態様において、汚れや湿気による誤作動の可能性を除去できるため、入力の精度を改善できる。
他の入力デバイスも同じ方法により処理できる。例えば、電話を、電話の投影したイメージに置き換えうる。受話器を握り、走査センサシステムによって認識される程度に持ち上げられると、コンピュータマイクロホンを作動できる。ダイアリングは、キーボードの投影イメージの動きに関連して上述した方法と同様の方法により処理できる。
投影イメージを、ユーザの手が通常の入力デバイス上にわたって置かれた状態でユーザが見る入力デバイスの一部に対応するように変更できる。この変更したイメージを、ユーザの手が投影イメージを受け取った表面上の位置にあるとして検出したときに生成できる。さらに、入力デバイスのイメージを、そのイメージを備えたユーザの相互作用に反映するため、それ自身に修正できる。例えば、指の動きがキーの凹部に一致すると、投影イメージを、仮想キーが動いたことを示唆するように変更できる。
本発明を限られた数の実施態様に関して記述してきたが、当業者であればそれらの多数の修正及び変更を理解されよう。本明細書の請求項は、本発明の真の精神と範囲を超えることなく、そのような全ての修正及び変更を含むことを意図している。
本発明による一実施態様の側面図である。 図1の実施態様の正面図である。 図1に示されたデバイスによって投影できるイメージの平面図である。 図1に示されたデバイスを実現するための本発明による一実施態様のブロック図である。 本発明による一実施態様における図1に示されたデバイスの特徴を実現できるデバイスを形成するプロセスの流れ図である。 図1に示された実施態様のソフトウェアの実施に関する流れ図である。 本発明による一実施態様における較正ソフトウェアに関する流れ図である。 本発明による一実施態様における較正ソフトウェアに関する流れ図である。

Claims (20)

  1. 表面上にイメージを投影するステップと、
    該投影されたイメージに対するユーザの動作を検出するステップと
    を含んでなる電子デバイスへのデータ入力方法。
  2. 前記投影されたイメージに関連する前記ユーザのデジタルビデオイメージを取り込み、前記電子デバイスに前記イメージの表現を入力するステップを更に含んでいる請求項1に記載の電子デバイスへのデータ入力方法。
  3. パターン認識ソフトウェアを使用して前記デジタルビデオイメージを分析するステップを更に含んでいる請求項2に記載の電子デバイスへのデータ入力方法。
  4. 前記デジタルビデオイメージにおいて描写された対象物の移動方向を決定するステップを更に含んでいる請求項3に記載の電子デバイスへのデータ入力方法。
  5. 前記イメージを投影するステップは、表面上にマウスのイメージを投影し、該マウスのイメージに対するユーザの動作を検出するステップを含んでいる請求項1に記載の電子デバイスへのデータ入力方法。
  6. 前記イメージを投影するステップは、キーボードのイメージを投影して、該キーボードのイメージに対するユーザの動作を検出するステップを含んでいる請求項1に記載の電子デバイスへのデータ入力方法。
  7. 前記イメージを投影するステップは、入力デバイスへイメージを投影するステップを含んでいる請求項1に記載の電子デバイスへのデータ入力方法。
  8. 表面上にイメージを投影する手段と、
    該イメージに関連するユーザの動作を検出する手段と
    を含んでいるコンピュータに実行させる命令を記憶するための記憶媒体を含む製品。
  9. パターン認識ソフトウェアを使用して、デジタルビデオストリームをコンピュータに分析させるための命令を更に含んでいる請求項8に記載の製品。
  10. 前記デジタルビデオストリームに描写された対象物の移動方向をコンピュータに決定させるための命令を更に含んでいる請求項9に記載の製品。
  11. 表面上にマウスのイメージを投影させ、該マウスのイメージに関連するユーザの動作をコンピュータに検出させるための命令を含んでいる請求項8に記載の製品。
  12. キーボードのイメージを投影させ、該キーボードのイメージに関連するユーザの動作をコンピュータに検出させるための命令を含んでいる請求項8に記載の製品。
  13. 入力デバイスのイメージをコンピュータに投影させるための命令を含んでいる請求項8に記載の製品。
  14. プロセッサと、
    該プロセッサに結合したセンサと、
    該プロセッサに結合したプロジェクタと、
    該プロセッサに付随するメモリと
    を含んでなり、該メモリは、コンピュータプログラムを記憶しており、該コンピュータプログラムは、該プロセッサに、
    前記プロジェクタを使用して入力デバイスのイメージを投影させ、
    前記センサを使用して前記入力デバイスのイメージに関連するユーザの動作を検出させるシステム。
  15. 複数のデジタルビデオカメラを含んでいる請求項14に記載のシステム。
  16. 前記プログラムは、ユーザの動作に応答してポインタの位置を制御する請求項14に記載のシステム。
  17. 前記システムがコンピュータシステムである請求項14に記載のシステム。
  18. 前記メモリはパターン認識ソフトウェアを含んでいる請求項14に記載のシステム。
  19. 前記プロジェクタが、ポインティングデバイスのイメージを投影する請求項14に記載のシステム。
  20. 前記プロジェクタが、キーボードのイメージを投影する請求項14に記載のシステム。
JP2006198794A 1998-10-07 2006-07-20 データ入力方法 Pending JP2006323866A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16781498A 1998-10-07 1998-10-07
US09/187,903 US6690357B1 (en) 1998-10-07 1998-11-06 Input device using scanning sensors

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000575075A Division JP2002526867A (ja) 1998-10-07 1999-08-26 データ入力方法

Publications (1)

Publication Number Publication Date
JP2006323866A true JP2006323866A (ja) 2006-11-30

Family

ID=26863501

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2000575075A Withdrawn JP2002526867A (ja) 1998-10-07 1999-08-26 データ入力方法
JP2006198794A Pending JP2006323866A (ja) 1998-10-07 2006-07-20 データ入力方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2000575075A Withdrawn JP2002526867A (ja) 1998-10-07 1999-08-26 データ入力方法

Country Status (9)

Country Link
EP (1) EP1127332B1 (ja)
JP (2) JP2002526867A (ja)
CN (1) CN1322329B (ja)
AT (1) ATE255745T1 (ja)
AU (1) AU6240499A (ja)
CA (1) CA2344352C (ja)
DE (1) DE69913371T2 (ja)
TW (1) TW464800B (ja)
WO (1) WO2000021024A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123006A (ja) * 2007-11-15 2009-06-04 Funai Electric Co Ltd プロジェクタ
KR100907286B1 (ko) * 2007-11-26 2009-07-13 (주)디앤티 프로젝션 키보드를 이용한 마우스 포인터 제어 방법
JP2013178767A (ja) * 2013-02-25 2013-09-09 Funai Electric Co Ltd プロジェクタ
WO2015116157A3 (en) * 2014-01-31 2015-12-03 Hewlett-Packard Development Company, L.P. Display unit manager

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2361146A (en) * 2000-02-04 2001-10-10 Roke Manor Research User interface for a mobile telecommunications system
IL136434A0 (en) * 2000-05-29 2001-06-14 Gal Moshe Ein Wireless cursor control
IL136432A0 (en) * 2000-05-29 2001-06-14 Vkb Ltd Data input device
USRE40368E1 (en) * 2000-05-29 2008-06-10 Vkb Inc. Data input device
US6650318B1 (en) 2000-10-13 2003-11-18 Vkb Inc. Data input device
KR100865598B1 (ko) 2000-05-29 2008-10-27 브이케이비 인코포레이티드 수문자 조합 및 다른 데이터의 입력을 위한 가상 데이터입력 장치 및 방법
FI112706B (fi) * 2000-06-28 2003-12-31 Nokia Corp Menetelmä ja järjestely tiedon syöttämiseksi elektroniseen laitteeseen ja elektroninen laite
JP2004513416A (ja) * 2000-09-07 2004-04-30 カネスタ インコーポレイテッド ユーザオブジェクトと仮想転送装置との相互作用を検出しそして位置決めする擬似三次元方法及び装置
TR200002828A3 (tr) * 2000-09-29 2002-05-21 Cetin Yasemin Bilgisayarli Yapay Görmeye Dayali Kablosuz ve Antensiz Klavye Cihazi.
FI113094B (fi) * 2000-12-15 2004-02-27 Nokia Corp Parannettu menetelmä ja järjestely toiminnon aikaansaamiseksi elektronisessa laitteessa ja elektroninen laite
JP2002196877A (ja) * 2000-12-25 2002-07-12 Hitachi Ltd イメージセンサを用いた電子機器
US7242388B2 (en) 2001-01-08 2007-07-10 Vkb Inc. Data input device
GB2374266A (en) * 2001-04-04 2002-10-09 Matsushita Comm Ind Uk Ltd Virtual user interface device
JP2003152851A (ja) * 2001-11-14 2003-05-23 Nec Corp 携帯端末装置
AU2002362085A1 (en) * 2001-12-07 2003-07-09 Canesta Inc. User interface for electronic devices
US6977643B2 (en) 2002-01-10 2005-12-20 International Business Machines Corporation System and method implementing non-physical pointers for computer devices
US7071924B2 (en) 2002-01-10 2006-07-04 International Business Machines Corporation User input method and apparatus for handheld computers
WO2003071410A2 (en) 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US10242255B2 (en) 2002-02-15 2019-03-26 Microsoft Technology Licensing, Llc Gesture recognition system using depth perceptive sensors
US7307661B2 (en) 2002-06-26 2007-12-11 Vbk Inc. Multifunctional integrated image sensor and application to virtual interface technology
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
US6654001B1 (en) 2002-09-05 2003-11-25 Kye Systems Corp. Hand-movement-sensing input device
DE50308437D1 (de) 2003-02-03 2007-11-29 Siemens Ag Projektion von synthetischer information
JP2005095407A (ja) * 2003-09-25 2005-04-14 Samii Kk 遊技機
JP2005095405A (ja) * 2003-09-25 2005-04-14 Samii Kk 遊技機
GB0414578D0 (en) 2004-06-30 2004-08-04 Ncr Int Inc Self-service terminal
CN100410857C (zh) * 2005-01-27 2008-08-13 时代光电科技股份有限公司 资料输入装置
US8009871B2 (en) 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
WO2006090386A2 (en) 2005-02-24 2006-08-31 Vkb Inc. A virtual keyboard device
CN100367159C (zh) * 2005-04-04 2008-02-06 技嘉科技股份有限公司 虚拟键盘
US7616191B2 (en) * 2005-04-18 2009-11-10 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Electronic device and method for simplifying text entry using a soft keyboard
US8037414B2 (en) 2006-09-14 2011-10-11 Avaya Inc. Audible computer user interface method and apparatus
DE102007055204B4 (de) * 2007-11-19 2010-04-08 Deutsches Zentrum für Luft- und Raumfahrt e.V. Roboter, medizinischer Arbeitsplatz und Verfahren zum Projizieren eines Bildes auf die Oberfläche eines Objekts
DE102008001629A1 (de) * 2008-05-07 2009-11-12 Robert Bosch Gmbh Projektionsmittel umfassende Vorrichtung
CN101650520A (zh) 2008-08-15 2010-02-17 索尼爱立信移动通讯有限公司 移动电话的可视激光触摸板和方法
CN101729652A (zh) * 2008-10-31 2010-06-09 深圳富泰宏精密工业有限公司 具有多媒体功能的便携式电子装置
GB2466023A (en) 2008-12-08 2010-06-09 Light Blue Optics Ltd Holographic Image Projection Systems
JP5347673B2 (ja) 2009-04-14 2013-11-20 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP5740822B2 (ja) 2010-03-04 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN102893293A (zh) * 2010-03-12 2013-01-23 莎法·瓦拉 位置捕获输入设备、系统及其方法
HK1147905A2 (en) * 2010-06-30 2011-08-19 Chi Ching Lee System and method for virtual touch sensing
CN102402277B (zh) * 2010-09-16 2014-11-05 联想(北京)有限公司 电子终端及信息输入处理方法
US8839134B2 (en) * 2010-12-24 2014-09-16 Intel Corporation Projection interface techniques
WO2012119308A1 (en) * 2011-03-09 2012-09-13 Nokia Corporation An apparatus and method for remote user input
CN102546935A (zh) * 2011-12-20 2012-07-04 上海电机学院 利用光反射光感应的投影手机
CN103391480B (zh) * 2013-07-15 2017-11-28 Tcl集团股份有限公司 一种向电视机输入字符的方法及系统
JP2015079169A (ja) * 2013-10-18 2015-04-23 増田 麻言 投影装置
WO2015162722A1 (ja) * 2014-04-23 2015-10-29 日立マクセル株式会社 映像投写装置
US9841847B2 (en) 2014-12-25 2017-12-12 Panasonic Intellectual Property Management Co., Ltd. Projection device and projection method, for projecting a first image based on a position of a moving object and a second image without depending on the position
TWI717199B (zh) * 2020-01-21 2021-01-21 台灣骨王生技股份有限公司 醫療手術用控制系統及方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0554492B1 (en) * 1992-02-07 1995-08-09 International Business Machines Corporation Method and device for optical input of commands or data
EP0829799A3 (en) * 1992-05-26 1998-08-26 Takenaka Corporation Wall computer module
US5436639A (en) * 1993-03-16 1995-07-25 Hitachi, Ltd. Information processing system
DE19612949C1 (de) * 1996-04-01 1997-08-14 Siemens Ag Verfahren zur Erkennung mindestens eines fingerförmigen Objekts in einem ersten, handförmigen Objekt durch einen Rechner
JP3749369B2 (ja) * 1997-03-21 2006-02-22 株式会社竹中工務店 ハンドポインティング装置
DE29802435U1 (de) * 1998-02-12 1998-05-07 Siemens Nixdorf Inf Syst Anordnung der Projektionsfläche einer virtuellen Eingabeeinheit

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009123006A (ja) * 2007-11-15 2009-06-04 Funai Electric Co Ltd プロジェクタ
KR100907286B1 (ko) * 2007-11-26 2009-07-13 (주)디앤티 프로젝션 키보드를 이용한 마우스 포인터 제어 방법
JP2013178767A (ja) * 2013-02-25 2013-09-09 Funai Electric Co Ltd プロジェクタ
WO2015116157A3 (en) * 2014-01-31 2015-12-03 Hewlett-Packard Development Company, L.P. Display unit manager
TWI566169B (zh) * 2014-01-31 2017-01-11 惠普發展公司有限責任合夥企業 管理顯示單元之方法、電腦可讀媒體及相關系統

Also Published As

Publication number Publication date
CN1322329A (zh) 2001-11-14
JP2002526867A (ja) 2002-08-20
EP1127332A1 (en) 2001-08-29
TW464800B (en) 2001-11-21
ATE255745T1 (de) 2003-12-15
DE69913371D1 (de) 2004-01-15
CN1322329B (zh) 2010-06-02
EP1127332B1 (en) 2003-12-03
AU6240499A (en) 2000-04-26
DE69913371T2 (de) 2004-05-27
WO2000021024A1 (en) 2000-04-13
CA2344352A1 (en) 2000-04-13
CA2344352C (en) 2005-05-03

Similar Documents

Publication Publication Date Title
JP2006323866A (ja) データ入力方法
KR100896745B1 (ko) 스캐닝 센서를 사용한 입력 디바이스
US9778752B2 (en) Systems and methods for machine control
US8957864B2 (en) Coordinate input apparatus and method
US20070018966A1 (en) Predicted object location
US7342574B1 (en) Method and apparatus for inputting information including coordinate data
US20110006991A1 (en) Image Processing for Camera Based Motion Tracking
US7737959B2 (en) Position detection system using laser speckle
JP5133507B2 (ja) 複合追跡システムの方法および装置
US20090027335A1 (en) Free-Space Pointing and Handwriting
US20040095315A1 (en) Virtual holographic input method and device
JP2006509269A (ja) データを入力するための装置及び方法
US20030085877A1 (en) Passive optical mouse using image sensor with optional dual mode capability
JPH0895551A (ja) 画像表示装置
US10691219B2 (en) Systems and methods for machine control
US6738041B2 (en) Using video information to control cursor position
CN101869484A (zh) 具有触摸屏的医疗诊断装置及其操控方法
JP3804212B2 (ja) 情報入力装置
US20220350417A1 (en) Systems and methods for machine control
JP3355708B2 (ja) コマンド処理装置
KR20110083621A (ko) 터치 패널 장치
US20050088425A1 (en) Pen mouse
KR101943097B1 (ko) 가상 특징점을 이용한 이미지 정합 방법 및 그 시스템
KR101911676B1 (ko) 지시체의 움직임을 고려한 프리젠테이션 영상 처리장치 및 방법
US20110102376A1 (en) Image-Based Coordinate Input Apparatus and Method Utilizing Buffered Imates

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080425

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090130