JP4702475B2 - 入力装置、ハンドヘルド装置及び制御方法 - Google Patents
入力装置、ハンドヘルド装置及び制御方法 Download PDFInfo
- Publication number
- JP4702475B2 JP4702475B2 JP2009240592A JP2009240592A JP4702475B2 JP 4702475 B2 JP4702475 B2 JP 4702475B2 JP 2009240592 A JP2009240592 A JP 2009240592A JP 2009240592 A JP2009240592 A JP 2009240592A JP 4702475 B2 JP4702475 B2 JP 4702475B2
- Authority
- JP
- Japan
- Prior art keywords
- movement
- control
- signal
- motion
- command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C17/00—Arrangements for transmitting signals characterised by the use of a wireless electrical link
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C2201/00—Transmission systems of control signals via wireless link
- G08C2201/30—User interface
- G08C2201/32—Remote control based on movements, attitude of remote control device
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
また、近年においては、ユーザの手の動き(ジェスチャ)自体を撮像し、その動きに応じてGUIをコントロールする技術も開発されてきている(下記、特許文献3参照)。
前記動き信号出力手段は、入力装置の動きを検出し、前記入力装置の動きに応じた動き信号を出力する。
前記制御コマンド発生手段は、前記動き信号に応じた、画面に表される画像の動きを制御するための制御コマンドを発生する。
前記操作コマンド発生手段は、操作部を有する。
前記操作部は、前記入力装置の動きによらない、ユーザの操作による操作信号を出力する。
この場合、操作コマンド発生手段は、前記出力された操作信号に基づき操作コマンドを発生する。
前記制御手段は、前記操作コマンドの発生タイミングに時間的に関連して、前記入力装置の動きに対する前記画像の動きの感度を変化させた前記制御コマンドを発生させるように、前記制御コマンド発生手段を制御する。
「動き信号出力手段」は、センサを含み、あるいは、センサ及びそのセンサで検出された検出値に基き演算する手段を含む。「動き信号」は、例えば角速度値、角加速度値、速度値、加速度値、などが挙げられが、これらに限定されない。
「画面に表される画像」とは、その画面の全体または一部に表される画像である。「画像」には、ポインタや、アイコン、WEB画像、地図、電子番組表(EPG(Electronic Program Guide))などが含まれる。「画像の動き」とは、例えばポインタの動き、画像のスクロール、ズーム、回転、その他の動きが挙げられる。
本発明では、操作コマンドの発生タイミングに時間的に関連して、感度を変化させた制御コマンドが発生する。これにより、操作コマンドの発生後、発生前後、または発生まで、例えば、画像の動きを鈍らせることができる。すなわち、本発明では、操作コマンドの発生に関連して、画像の動きを鈍らせることができるため、例えば、ユーザの意図したコマンドが実行されない、などのユーザの意図しない操作がなされることを防止することができる。
本発明では、操作コマンドが発生してから所定の時間内は、画像の動きを鈍らせることができる。これにより、例えば、操作コマンドが発行された後に、入力装置が動いてしまうことで、画面上で画像がユーザの意図しない動きをしてしまうことを防止することができる。
これにより、画像の動きの感度が変化されている時間(感度変更期間)を、適切に変化させることができる。
例えばポインティング操作が得意なユーザは、操作部への入力開始後(または入力解除後)であって、操作コマンドが発生されてから、すぐにポインタを移動させようとして入力装置を振る場合がある。この場合、動き信号の出力値は、入力装置がユーザに振られるときの動きに応じて大きくなる。本発明では、動き信号の出力値が大きくなるに従って、感度変更期間を短縮することができる。これにより、ユーザは、操作部への入力開始後(または入力解除後)にスムーズにポインティング操作に移行することができる。
「所定の周波数範囲の信号」とは、手振れに相当する周波数範囲の信号である。
例えば、細かい画像操作が苦手なユーザは、手振れが大きい場合がある。このようなユーザの場合、操作部への入力開始後(または入力の解除後)であって、操作コマンドが発生されてからある程度長い時間、感度変更期間が継続したほうが操作感が良い。本発明では、手振れに相当する周波数範囲の信号の出力値が大きくなるに従って、感度変更期間を延長させることができる。これにより、手振れの大きなユーザでも、ポインティング操作が容易となり、操作感を向上させることができる。
前記動き信号出力手段は、入力装置の動きを検出し、前記入力装置の動きに応じた動き信号を出力する。
前記制御コマンド発生手段は、前記動き信号に応じた、画面に表される画像の動きを制御するための制御コマンドを発生する。
前記操作コマンド発生手段は、前記入力装置の動きによらない、ユーザの操作による操作信号を出力する操作部を有し、前記出力された操作信号に基づき操作コマンドを発生する。
前記制御手段は、前記操作信号の入力された後、または前記操作信号の入力が解除された後に、前記入力装置の動きに対する前記画像の動きの感度を変化させた前記制御コマンドを発生させるように、前記制御コマンド発生手段を制御する。
本発明では、操作信号の入力後、または操作信号の入力が解除された後に感度を変化させた制御コマンドが発生される。これにより、操作部への入力開始後(または入力解除後)に入力装置が動いてしまうことで、画像がユーザの意図しない動きをしてしまうことを防止することができる。
第1の時間(第1の感度変更期間)と、第2の時間(第2の感度変更期間)とは、同じであってもよいし、異なっていてもよい。
前記動き信号出力手段は、ハンドヘルド装置の動きを検出し、前記ハンドヘルド装置の動きに応じた動き信号を出力する。
前記制御コマンド発生手段は、前記動き信号に応じた、前記表示部の画面に表される画像の動きを制御するための制御コマンドを発生する。
前記操作コマンド発生手段は、前記ハンドヘルド装置の動きによらない、ユーザの操作による操作信号を出力する操作部を有し、前記出力された操作信号に基づき操作コマンドを発生する。
前記制御手段は、前記操作コマンドの発生タイミングに時間的に関連して、前記ハンドヘルド装置の動きに対する前記画像の動きの感度を変化させた前記制御コマンドを発生させるように、前記制御コマンド発生手段を制御する。
前記動き信号出力手段は、ハンドヘルド装置の動きを検出し、前記ハンドヘルド装置の動きに応じた動き信号を出力する。
前記制御コマンド発生手段は、前記動き信号に応じた、画面に表される画像の動きを制御するための制御コマンドを発生する。
前記操作コマンド発生手段は、操作部を有する。
前記操作部は、前記ハンドヘルド装置の動きによらない、ユーザの操作による操作信号を出力する。
この場合、操作コマンド発生手段は、前記出力された操作信号に基づき操作コマンドを発生する。
前記制御手段は、前記操作信号が入力された後、または前記操作信号の入力が解除された後に、前記入力装置の動きに対する前記画像の動きの感度を変化させた前記制御コマンドを発生させるように、前記制御コマンド発生手段を制御する。
前記検出された入力装置の動きに応じた動き信号が出力される。
前記動き信号に応じた、画面に表される画像の動きを制御するための制御コマンドが発生される。
前記入力装置の動きによらない、ユーザの操作による操作信号が出力される。
前記出力された操作信号に基づき操作コマンドが発生される。
前記操作コマンドの発生タイミングに時間的に関連して、前記入力装置の動きに対する前記画像の動きの感度を変化させた前記制御コマンドが発生される。
前記動き信号出力手段は、入力装置の動きを検出し、前記入力装置の動きに応じた動き信号を出力する。
前記制御コマンド発生手段は、前記動き信号に応じた、画面に表される画像の動きを制御するための制御コマンドを発生する。
前記操作コマンド発生手段は、操作部を有する。
前記操作部は、前記入力装置の動きによらない、ユーザの操作による操作信号を出力する。
この場合、前記操作コマンド発生手段は、前記出力された操作信号に基づき操作コマンドを発生する。
前記制御手段は、前記操作コマンドの発生タイミングに時間的に関連して、前記画面上で前記画像の動きが停止されるように、前記制御コマンド発生手段を制御する。
本発明では、操作コマンドの発生タイミングに時間的に関連して、画像の動きが停止される。これにより、例えば、ユーザの意図したコマンドが実行されない、などのユーザの意図しない操作がなされることを防止することができる。
本発明では、操作コマンドが発生してから所定の時間内は、画像の動きを停止させることができる。これにより、例えば、操作コマンドが発行された後に、入力装置が動いてしまうことで、画面上で画像がユーザの意図しない動きをしてしまうことを防止することができる。
これにより、操作コマンドが発生されてから画像の動きが停止されている時間を、適切に変化させることができる。
前記動き信号出力手段は、ハンドヘルド装置の動きを検出し、前記ハンドヘルド装置の動きに応じた動き信号を出力する。
前記制御コマンド発生手段は、前記動き信号に応じた、前記表示部の画面に表される画像の動きを制御するための制御コマンドを発生する。
前記操作コマンド発生手段は、操作部を有する。
前記操作部は、前記ハンドヘルド装置の動きによらない、ユーザの操作による操作信号を出力する。
この場合、操作コマンド発生手段は、前記出力された操作信号に基づき操作コマンドを発生する。
前記制御手段は、前記操作コマンドの発生タイミングに時間的に関連して、前記画面上で前記画像の動きが停止されるように、前記制御コマンド発生手段を制御する。
前記検出された前記入力装置の動きに応じた動き信号が出力される。
前記動き信号に応じた、画面に表される画像の動きを制御するための制御コマンドが発生される。
前記入力装置の動きによらない、ユーザの操作による操作信号が出力される。
前記出力された操作信号に基づき操作コマンドが発生される。
前記操作コマンドの発生タイミングに時間的に関連して、前記画面上で前記画像の動きが停止されるように、前記制御コマンドの発生が制御される。
前記動き信号出力手段は、画面に表される画像の動きを制御するために対象物の動きを検出し、前記対象物の動きに応じた動き信号を出力する。
前記制御コマンド発生手段は、前記動き信号に応じた、前記画像の動きを制御するための制御コマンドを発生する。
前記操作信号出力手段は、前記画像の動きの制御を目的としないユーザの操作を検出し、前記操作による操作信号を出力する。
前記操作コマンド発生手段は、前記操作信号に基づき操作コマンドを発生する。
前記制御手段は、前記操作コマンドの発生タイミングに時間的に関連して、前記対象物の動きに対する前記画像の動きの感度を変化させた前記制御コマンドを発生させるように、前記制御コマンド発生手段を制御する。
「対象物」には、入力装置それ自体、ユーザの身体(例えば、手、指)等が含まれる。
「動き信号出力手段」は、センサを含み、あるいは、センサ及びそのセンサで検出された検出値に基き演算する手段を含む。「動き信号」は、例えば角速度値、角加速度値、速度値、加速度値、などが挙げられが、これらに限定されない。
「画像の動きの制御を目的としないユーザの操作」とは、例えば、決定、選択、文字入力などの入力操作が挙げられる。
「画面に表される画像」とは、その画面の全体または一部に表される画像である。「画像」には、ポインタや、アイコン、WEB画像、地図、電子番組表(EPG(Electronic Program Guide))などが含まれる。「画像の動き」とは、例えばポインタの動き、画像のスクロール、ズーム、回転、その他の動きが挙げられる。
本発明では、操作コマンドの発生タイミングに時間的に関連して、感度を変化させた制御コマンドが発生する。これにより、操作コマンドの発生後、発生前後、または発生まで、例えば、画像の動きを鈍らせることができる。すなわち、本発明では、操作コマンドの発生に関連して、画像の動きを鈍らせることができるため、例えば、ユーザの意図したコマンドが実行されない、などのユーザの意図しない操作がなされることを防止することができる。
前記動き信号出力手段は、画面に表される画像の動きを制御するために対象物の動きを検出し、前記対象物の動きに応じた動き信号を出力する。
前記制御コマンド発生手段は、前記動き信号に応じた、前記画像の動きを制御するための制御コマンドを発生する。
前記操作信号出力手段は、前記画像の動きの制御を目的としないユーザの操作を検出し、前記操作による操作信号を出力する。
前記操作コマンド発生手段は、前記操作信号に基づき操作コマンドを発生する。
前記制御手段は、前記操作信号が入力された後、または前記操作信号の入力が解除された後に、前記対象物の動きに対する前記画像の動きの感度を変化させた前記制御コマンドを発生させるように、前記制御コマンド発生手段を制御する。
本発明では、操作信号の入力後、または操作信号の入力が解除された後に感度を変化させた制御コマンドが発生される。これにより、画像の動きの制御を目的としないユーザの操作が開始された後(または操作が解除された後)に対象物が動いてしまうことで、画像がユーザの意図しない動きをしてしまうことを防止することができる。
前記対象物の動きに応じた動き信号が出力される。
前記動き信号に応じた、画面に表される画像の動きを制御するための制御コマンドが発生される。
前記画像の動きの制御を目的としないユーザの操作が検出される。
前記操作による操作信号が出力される。
前記操作信号に基づき操作コマンドが発生される。
前記操作コマンドの発生タイミングに時間的に関連して、前記対象物の動きに対する前記画像の動きの感度を変化させた前記制御コマンドが発生される。
前記動き信号出力手段は、画面に表される画像の動きを制御するために対象物の動きを検出し、前記対象物の動きに応じた動き信号を出力する。
前記制御コマンド発生手段は、前記動き信号に応じた、前記画像の動きを制御するための制御コマンドを発生する。
前記操作信号出力手段は、前記画像の動きの制御を目的としないユーザの操作を検出し、前記操作による操作信号を出力する。
前記操作コマンド発生手段は、前記操作信号に基づき操作コマンドを発生する。
前記制御手段は、前記操作コマンドの発生タイミングに時間的に関連して、前記画面上で前記画像の動きが停止されるように、前記制御コマンド発生手段を制御する。
本発明では、操作コマンドの発生タイミングに時間的に関連して、画像の動きが停止される。これにより、例えば、ユーザの意図したコマンドが実行されない、などのユーザの意図しない操作がなされることを防止することができる。
前記対象物の動きに応じた動き信号が出力される。
前記動き信号に応じた、前記画像の動きを制御するための制御コマンドが発生される。
前記画像の動きの制御を目的としないユーザの操作が検出される。
前記操作による操作信号が出力される。
前記操作信号に基づき操作コマンドが発生される。
前記操作コマンドの発生タイミングに時間的に関連して、前記画面上で前記画像の動きが停止されるように、前記制御コマンドの発生が制御される。
ハードウェアは、典型的には、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)、NIC(Network Interface Card)、WNIC(Wireless NIC)、モデム、光ディスク、磁気ディスク、フラッシュメモリのうち少なくとも1つが選択的に用いられることで構成される。
次に、以上のように構成された制御システム100の動作を説明する。
Y(t) =Y(t-1)+Vy・・・(2)。
(操作コマンドに関連して、ポインタの動きの感度が変化される場合の、第1の実施形態)
次に、操作コマンドに関連して、ポインタの動きの感度が変化される場合の、第1の実施形態について説明する。図10は、本実施形態に係る入力装置1の動作を示すタイミングチャートである。図10(A)は、ボタン11が押圧された場合の、操作信号の出力を示しており、図10(B)は、決定コマンドの発生を表している。また、図10(C)は、感度変更期間を表している。ここで、感度変更期間とは、入力装置1の動きに対する、ポインタ2の動きの感度が変化している期間のことである。なお、以降の説明では、特に明示した場合を除き、入力装置1に設けられた操作部23のうち、ボタン11が操作された場合について説明する。
Vx’= k Vx・・・(3)
Vy’= k Vy・・・(4)。
次に、操作コマンドに関連して、ポインタの動きの感度が変化される場合の、第2の実施形態について説明する。図13は、本実施形態に係る入力装置1の動作を示すタイミングチャートである。
(1)MPU19は、短時間のパルスとして発生される決定コマンドの、立ち上がったパルスが戻るとき(1→0)をトリガーとして、感度変更値(Vx’、Vy’)の算出及び送信を開始する。MPU19は、感度変更期間内は、感度変更値(Vx’、Vy’)の算出及び送信を繰り返す。
(2)MPU19は、短時間のパルスとして発生される決定コマンドの立ち上がり(0→1)をトリガーとして、感度変更値(Vx’、Vy’)の算出及び送信を開始する。MPU19は、感度変更期間内は、感度変更値(Vx’、Vy’)の算出及び送信を繰り返す。
(3)MPU19は、操作信号の入力が開始されたことをトリガーとして、感度変更値(Vx’、Vy’)の算出及び送信を開始する。MPU19は、感度変更期間内は、感度変更値(Vx’、Vy’)の算出及び送信を繰り返す。感度変更期間は、MPU19に操作信号が入力されてから決定コマンドが発生されるまでの時間よりも長い時間とされる。なお、MPU19は、操作信号が入力された直後から感度変更値(Vx’、Vy’)の算出及び送信を開始するのではなく、操作信号を入力してから微少時間(例えば、0.05秒程度)経過後に感度変更値(Vx’、Vy’)の算出及び送信を開始してもよい。微少時間であれば、問題ないからである。
(4)MPU19は、操作信号の入力が開始されたことをトリガーとして、感度変更値(Vx’、Vy’)の算出及び送信を開始する。MPU19は、決定コマンドの立ち上がったパルスが戻るとき(1→0)をトリガーとして感度変更値の算出及び送信を終了する。この場合、感度変更期間をカウントする必要はない。なお、MPU19は、操作信号が入力されてから微少時間経過後から感度変更値の算出及び送信を開始してもよい。
(5)MPU19は、操作信号の入力が開始されたことをトリガーとして、感度変更値(Vx’、Vy’)の算出及び送信を開始する。MPU19は、パルスの立ち上がり(0→1)をトリガーとして感度変更値の算出及び送信を終了する。なお、MPU19は、感度変更期間をカウントする必要はない。また、MPU19は、操作信号が入力されてから微少時間経過後から感度変更値の算出及び送信を開始してもよい。
次に、操作コマンドに関連して、ポインタの動きの感度が変化される場合の、第3の実施形態について説明する。上述の各実施形態では、スイッチからの操作信号の入力が開始された直後、あるいは、操作信号が入力されてから所定時間後に決定コマンドが発生される場合について説明した。本実施形態では、スイッチからの操作信号の入力が解除されたときに決定コマンドが発生される。
次に、操作コマンドに関連して、ポインタの動きの感度が変化される場合の、第4の実施形態について説明する。図15は、本実形態に係る入力装置1の動作を示すタイミングチャートである。
(1)MPU19は、短時間のパルスとして発生される決定コマンドの、立ち上がったパルスが戻るとき(1→0)をトリガーとして、感度変更値(Vx’、Vy’)の算出及び送信を開始する。MPU19は、感度変更期間内は、感度変更値(Vx’、Vy’)の算出及び送信を繰り返す。
(2)MPU19は、短時間のパルスとして発生される決定コマンドの立ち上がり(0→1)をトリガーとして、感度変更値(Vx’、Vy’)の算出及び送信を開始する。MPU19は、感度変更期間内は、感度変更値(Vx’、Vy’)の算出及び送信を繰り返す。
(3)MPU19は、操作信号の入力が解除されたことをトリガーとして、感度変更値(Vx’、Vy’)の算出及び送信を開始する。MPU19は、感度変更期間内は、感度変更値(Vx’、Vy’)の算出及び送信を繰り返す。感度変更期間は、操作信号の入力が解除されてから決定コマンドが発生されるまでの時間よりも長い時間とされる。なお、MPU19は、操作信号の入力が解除された直後から感度変更値(Vx’、Vy’)の算出及び送信を開始するのではなく、操作信号の入力が解除されてから微少時間経過後に感度変更値の算出及び送信を開始してもよい。
(4)MPU19は、操作信号の入力が解除されたことをトリガーとして、感度変更値(Vx’、Vy’)の算出及び送信を開始する。MPU19は、立ち上がったパルスが戻るとき(1→0)をトリガーとして感度変更値の算出及び送信を終了する。この場合、感度変更期間をカウントする必要はない。なお、MPU19は、操作信号の入力が解除されてから微少時間経過後から感度変更値の算出及び送信を開始してもよい。
(5)MPU19は、操作信号の入力が解除されたことをトリガーとして、感度変更値(Vx’、Vy’)の算出及び送信を開始する。MPU19は、決定コマンドのパルスの立ち上がり(0→1)をトリガーとして感度変更値の算出及び送信を終了する。なお、MPU19は、感度変更期間をカウントする必要はない。また、MPU19は、操作信号の入力が解除されてから微少時間経過後から感度変更値(Vx’、Vy’)の算出及び送信を開始してもよい。
上述の各実施形態では、ポインタ2の動きの感度が鈍くなる場合について説明した。一方、本実施形態では、ポインタ2の動きが停止される。したがって、その点を中心に説明する。なお、上述の各実施形態で示した矢印の範囲の期間(図10(C)、図13(C)、図14(C)、図15(C)、あるいはこれらの組み合わせ)のいずれもポインタ2の動きが停止されてよい。本実施形態では、一例として、図10(C)に示した矢印の範囲の期間内で、ポインタ2の動きが停止される場合について説明する。
MPU19は、タイマーをONとすると、速度値(Vx、Vy)の送信を停止する。あるいは、MPU19は、速度値(Vx、Vy)をゼロとして制御装置40へ送信してもよい。次に、MPU19は、規制時間が経過したか否かを判定する(ステップ408)。規制時間が経過していない場合(ステップ408のNO)、MPU19は、速度値(Vx、Vy)の送信の停止状態を維持するか、あるいは、速度値をゼロとして制御装置40へ送信する。
(操作信号に関連して、ポインタの動きの感度が変化される場合の、第1の実施形態)
上述の各実施形態では、操作コマンドに関連して、ポインタの動きの感度が変化(あるいは停止)される場合について説明した。本実施形態以降では、操作信号に関連して、ポインタの動きの感度が変化される。
次に、操作信号に関連して、ポインタの動きの感度が制御される場合の第2の実施形態について説明する。本実施形態では、操作信号の入力が解除されたことをトリガーとして、第2の感度変更期間が開始される。
次に、操作信号に関連して、ポインタの動きの感度が変化する場合の、第3の実施形態について説明する。本実施形態では、操作信号が入力されてから第1の感度変更期間内、及び操作信号の入力が解除されてから第2の感度変更期間内は、ポインタ2の動きの感度が変化される。
次に、操作信号に関連して、ポインタの動きの感度が変化する場合の、第4の実施形態について説明する。図24は、本実施形態に係る入力装置1の動作を示すタイミングチャートである。
次に、操作信号に関連して、ポインタの動きの感度が変化する場合の、第5の実施形態について説明する。図25は、本実施形態に係る入力装置の動作を示すタイミングチャートである。
(感度変更期間が可変とされる場合の第1の実施形態)
上述の各実施形態では、感度変更期間、または規制時間が一定である場合について説明した。以降の説明では、感度変更期間または規制時間が可変に制御される点において、上述の実施形態と異なるため、その点を中心に説明する。ここで、上述の各実施形態のうち、感度変更期間(または規制時間)をカウントする実施形態であれば、感度変更期間(または規制時間)を可変に制御することができる。本実施形態以降では、一例として、操作コマンドに関連してポインタの動きの感度が変化される場合の第1実施の形態で説明した感度変更期間(図10参照)が可変に制御される場合について説明する。
次に感度変更期間が可変とされる場合の、第2の実施形態について説明する。図29は、本実施形態に係る入力装置の動作を示すフローチャートである。本実施形態に係る入力装置1は、角速度値だけでなく、角加速度値にも関連して感度変更期間が可変に制御される点において上述の図26に示した実施形態と異なる。従って、その点を中心に説明する。なお、角速度値に関連するカウントダウン量を第1のカウントダウン量ΔC(ω)、角加速度値に関連するカウントダウン量を第2のカウントダウン量ΔC(Δω)として説明する。
次に感度変更期間が可変とされる場合の、第3の実施形態について説明する。
ΔC(P)≦ΔC(ω)+ΔC(Δω)−1・・・(5)。
上述の各実施形態では、ユーザに操作される操作部がボタン11(マウスの左ボタンに相当する機能を有するボタン(決定ボタン))であるとして説明した。本実施形態では、ユーザに操作される操作部がスクロールボタン(図示せず)、あるいはズームボタン(図示せず)であるとして説明する。
本発明に係る実施の形態は、以上説明した実施の形態に限定されず、種々変形が可能である。
図31及び図32は、ジェスチャ操作型の入力装置の一例を示す図であり、ユーザの手の動きに応じて、画面上で移動されるポインタの動きを説明するための図である。図31には、ユーザが画面3に対して平行な方向(XY方向)に手を移動させた場合が示されている。図32には、ユーザが画面3に垂直な方向(Z方向)に手を移動させた場合が示されている。
制御部は、ユーザの手の、XY方向への動きの情報に基づいて、ポインタ2を画面3上で移動させるように表示を制御する(図31参照)。
(ax、ay)…加速度値
(Vx、Vy)…速度値
(Vx’、Vy’)…感度変更値
(X(t)、Y(t))…座標値
1…入力装置
2…ポインタ
3…画面
10…筐体
15…角速度センサユニット
16…加速度センサユニット
19、35…MPU
20…水晶発振器
21…送受信機
38…送受信機
22、39…アンテナ
23…操作部
40…制御装置
42…表示制御部
100…制御システム
Claims (24)
- 画面に表される画像の動きを制御するために対象物の動きを検出し、前記対象物の動きに応じた動き信号を出力する動き信号出力手段と、
前記動き信号に応じた、前記画像の動きを制御するための制御コマンドを発生する制御コマンド発生手段と、
前記画像の動きの制御を目的としないユーザの操作を検出し、前記操作による操作信号を出力する操作信号出力手段と、
前記操作信号に基づき操作コマンドを発生する操作コマンド発生手段と、
前記操作コマンドが発生されてから所定の時間以内は、前記対象物の動きに対する前記画像の動きの感度を変化させた前記制御コマンドを発生させるように、前記制御コマンド発生手段を制御する制御手段と、
前記時間を可変に制御する時間制御手段と
を具備する入力装置。 - 請求項1に記載の入力装置であって、
前記時間制御手段は、前記動き信号に応じて、前記時間を可変に制御する
入力装置。 - 請求項2に記載の入力装置であって、
前記時間制御手段は、前記動き信号の出力値が大きくなるに従って前記時間を短縮するように前記時間を制御する
入力装置。 - 請求項2に記載の入力装置であって、
前記時間制御手段は、前記動き信号の出力値のうち所定の周波数範囲の信号の出力が大きくなるに従って、前記時間を延長するように前記時間を制御する
入力装置。 - 画面に表される画像の動きを制御するために対象物の動きを検出し、前記対象物の動きに応じた動き信号を出力する動き信号出力手段と、
前記動き信号に応じた、前記画像の動きを制御するための制御コマンドを発生する制御コマンド発生手段と、
前記画像の動きの制御を目的としないユーザの操作を検出し、前記操作による操作信号を出力する操作信号出力手段と、
前記操作信号に基づき操作コマンドを発生する操作コマンド発生手段と、
前記操作信号が入力されてから、少なくとも前記操作コマンドが発生されるまで、または、前記操作信号の入力が解除されてから、少なくとも前記操作コマンドが発生されるまで、前記対象物の動きに対する前記画像の動きの感度を変化させた前記制御コマンドを発生させるように、前記制御コマンド発生手段を制御する制御手段と
を具備する入力装置。 - 画面に表される画像の動きを制御するために対象物の動きを検出し、前記対象物の動きに応じた動き信号を出力する動き信号出力手段と、
前記動き信号に応じた、前記画像の動きを制御するための制御コマンドを発生する制御コマンド発生手段と、
前記画像の動きの制御を目的としないユーザの操作を検出し、前記操作による操作信号を出力する操作信号出力手段と、
前記操作信号に基づき操作コマンドを発生する操作コマンド発生手段と、
前記操作信号が入力されてから第1の時間以内、または、前記操作信号の入力が解除されてから第2の時間以内は、前記対象物の動きに対する前記画像の動きの感度を変化させた前記制御コマンドを発生させるように、前記制御コマンド発生手段を制御する制御手段と、
前記第1の時間、または前記第2の時間を可変に制御する時間制御手段と
を具備する入力装置。 - 表示部と、
ハンドヘルド装置の動きを検出し、前記ハンドヘルド装置の動きに応じた動き信号を出力する動き信号出力手段と、
前記動き信号に応じた、前記表示部の画面に表される画像の動きを制御するための制御コマンドを発生する制御コマンド発生手段と、
前記ハンドヘルド装置の動きによらない、ユーザの操作による操作信号を出力する操作部を有し、前記出力された操作信号に基づき操作コマンドを発生する操作コマンド発生手段と、
前記操作コマンドが発生されてから所定の時間以内は、前記ハンドヘルド装置の動きに対する前記画像の動きの感度を変化させた前記制御コマンドを発生させるように、前記制御コマンド発生手段を制御する制御手段と、
前記時間を可変に制御する時間制御手段と
を具備するハンドヘルド装置。 - 請求項7に記載のハンドヘルド装置であって、
前記時間制御手段は、前記動き信号に応じて、前記時間を可変に制御する
ハンドヘルド装置。 - 請求項8に記載のハンドヘルド装置であって、
前記時間制御手段は、前記動き信号の出力値が大きくなるに従って前記時間を短縮するように前記時間を制御する
ハンドヘルド装置。 - 請求項8に記載のハンドヘルド装置であって、
前記時間制御手段は、前記動き信号の出力値のうち所定の周波数範囲の信号の出力が大きくなるに従って、前記時間を延長するように前記時間を制御する
ハンドヘルド装置。 - 表示部と、
ハンドヘルド装置の動きを検出し、前記ハンドヘルド装置の動きに応じた動き信号を出力する動き信号出力手段と、
前記動き信号に応じた、前記表示部の画面に表される画像の動きを制御するための制御コマンドを発生する制御コマンド発生手段と、
前記ハンドヘルド装置の動きによらない、ユーザの操作による操作信号を出力する操作部を有し、前記出力された操作信号に基づき操作コマンドを発生する操作コマンド発生手段と、
前記操作信号が入力されてから、少なくとも前記操作コマンドが発生されるまで、または、前記操作信号の入力が解除されてから、少なくとも前記操作コマンドが発生されるまで、前記ハンドヘルド装置の動きに対する前記画像の動きの感度を変化させた前記制御コマンドを発生させるように、前記制御コマンド発生手段を制御する制御手段と
を具備するハンドヘルド装置。 - 表示部と、
ハンドヘルド装置の動きを検出し、前記ハンドヘルド装置の動きに応じた動き信号を出力する動き信号出力手段と、
前記動き信号に応じた、画面に表される画像の動きを制御するための制御コマンドを発生する制御コマンド発生手段と、
前記ハンドヘルド装置の動きによらない、ユーザの操作による操作信号を出力する操作部を有し、前記出力された操作信号に基づき操作コマンドを発生する操作コマンド発生手段と、
前記操作信号が入力されてから第1の時間以内、または、前記操作信号の入力が解除されてから第2の時間以内は、前記ハンドヘルド装置の動きに対する前記画像の動きの感度を変化させた前記制御コマンドを発生させるように、前記制御コマンド発生手段を制御する制御手段と、
前記第1の時間、または前記第2の時間を可変に制御する時間制御手段と
を具備するハンドヘルド装置。 - 画面に表される画像の動きを制御するために対象物の動きを検出し、
前記対象物の動きに応じた動き信号を出力し、
前記動き信号に応じた、画面に表される画像の動きを制御するための制御コマンドを発生し、
前記画像の動きの制御を目的としないユーザの操作を検出し、
前記操作による操作信号を出力し、
前記操作信号に基づき操作コマンドを発生し、
前記操作コマンドが発生されてから所定の時間以内は、前記対象物の動きに対する前記画像の動きの感度を変化させた前記制御コマンドを発生させ、
前記時間を可変に制御する
制御方法。 - 請求項13に記載の制御方法であって、
前記時間を可変に制御するステップは、前記動き信号に応じて、前記時間を可変に制御する
制御方法。 - 請求項14に記載の制御方法であって、
前記時間を可変に制御するステップは、前記動き信号の出力値が大きくなるに従って前記時間を短縮するように前記時間を制御する
制御方法。 - 請求項14に記載の制御方法であって、
前記時間を可変に制御するステップは、前記動き信号の出力値のうち所定の周波数範囲の信号の出力が大きくなるに従って、前記時間を延長するように前記時間を制御する
制御方法。 - 画面に表される画像の動きを制御するために対象物の動きを検出し、
前記対象物の動きに応じた動き信号を出力し、
前記動き信号に応じた、画面に表される画像の動きを制御するための制御コマンドを発生し、
前記画像の動きの制御を目的としないユーザの操作を検出し、
前記操作による操作信号を出力し、
前記操作信号に基づき操作コマンドを発生し、
前記操作信号が入力されてから、少なくとも前記操作コマンドが発生されるまで、または、前記操作信号の入力が解除されてから、少なくとも前記操作コマンドが発生されるまで、前記対象物の動きに対する前記画像の動きの感度を変化させた前記制御コマンドを発生させる
制御方法。 - 画面に表される画像の動きを制御するために対象物の動きを検出し、
前記対象物の動きに応じた動き信号を出力し、
前記動き信号に応じた、画面に表される画像の動きを制御するための制御コマンドを発生し、
前記画像の動きの制御を目的としないユーザの操作を検出し、
前記操作による操作信号を出力し、
前記操作信号に基づき操作コマンドを発生し、
前記操作信号が入力されてから第1の時間以内、または、前記操作信号の入力が解除されてから第2の時間以内は、前記対象物の動きに対する前記画像の動きの感度を変化させた前記制御コマンドを発生させ、
前記第1の時間、または前記第2の時間を可変に制御する
制御方法。 - 画面に表される画像の動きを制御するために対象物の動きを検出し、前記対象物の動きに応じた動き信号を出力する動き信号出力手段と、
前記動き信号に応じた、前記画像の動きを制御するための制御コマンドを発生する制御コマンド発生手段と、
前記画像の動きの制御を目的としないユーザの操作を検出し、前記操作による操作信号を出力する操作信号出力手段と、
前記操作信号に基づき操作コマンドを発生する操作コマンド発生手段と、
前記操作コマンドが発生してから所定の時間以内は、前記画面上で前記画像の動きが停止されるように、前記制御コマンド発生手段を制御する制御手段と、
前記時間を可変に制御する時間制御手段と
を具備する入力装置。 - 画面に表される画像の動きを制御するために対象物の動きを検出し、前記対象物の動きに応じた動き信号を出力する動き信号出力手段と、
前記動き信号に応じた、前記画像の動きを制御するための制御コマンドを発生する制御コマンド発生手段と、
前記画像の動きの制御を目的としないユーザの操作を検出し、前記操作による操作信号を出力する操作信号出力手段と、
前記操作信号に基づき操作コマンドを発生する操作コマンド発生手段と、
前記操作信号が入力されてから、少なくとも前記操作コマンドが発生されるまで、または、前記操作信号の入力が解除されてから、少なくとも前記操作コマンドが発生されるまで、前記画面上で前記画像の動きが停止されるように、前記制御コマンド発生手段を制御する制御手段と
を具備する入力装置。 - 表示部と、
ハンドヘルド装置の動きを検出し、前記ハンドヘルド装置の動きに応じた動き信号を出力する動き信号出力手段と、
前記動き信号に応じた、前記表示部の画面に表される画像の動きを制御するための制御コマンドを発生する制御コマンド発生手段と、
前記ハンドヘルド装置の動きによらない、ユーザの操作による操作信号を出力する操作部を有し、前記出力された操作信号に基づき操作コマンドを発生する操作コマンド発生手段と、
前記操作コマンドが発生してから所定の時間以内は、前記画面上で前記画像の動きが停止されるように、前記制御コマンド発生手段を制御する制御手段と、
前記時間を可変に制御する時間制御手段と
を具備するハンドヘルド装置。 - 表示部と、
ハンドヘルド装置の動きを検出し、前記ハンドヘルド装置の動きに応じた動き信号を出力する動き信号出力手段と、
前記動き信号に応じた、前記表示部の画面に表される画像の動きを制御するための制御コマンドを発生する制御コマンド発生手段と、
前記ハンドヘルド装置の動きによらない、ユーザの操作による操作信号を出力する操作部を有し、前記出力された操作信号に基づき操作コマンドを発生する操作コマンド発生手段と、
前記操作信号が入力されてから、少なくとも前記操作コマンドが発生されるまで、または、前記操作信号の入力が解除されてから、少なくとも前記操作コマンドが発生されるまで、前記画面上で前記画像の動きが停止されるように、前記制御コマンド発生手段を制御する制御手段と
を具備するハンドヘルド装置。 - 画面に表される画像の動きを制御するために対象物の動きを検出し、
前記対象物の動きに応じた動き信号を出力し、
前記動き信号に応じた、前記画像の動きを制御するための制御コマンドを発生し、
前記画像の動きの制御を目的としないユーザの操作を検出し、
前記操作による操作信号を出力し、
前記操作信号に基づき操作コマンドを発生し、
前記操作コマンドが発生してから所定の時間以内は、前記画面上で前記画像の動きが停止されるように、前記制御コマンドの発生を制御し、
前記時間を可変に制御する
制御方法。 - 画面に表される画像の動きを制御するために対象物の動きを検出し、
前記対象物の動きに応じた動き信号を出力し、
前記動き信号に応じた、前記画像の動きを制御するための制御コマンドを発生し、
前記画像の動きの制御を目的としないユーザの操作を検出し、
前記操作による操作信号を出力し、
前記操作信号に基づき操作コマンドを発生し、
前記操作信号が入力されてから、少なくとも前記操作コマンドが発生されるまで、または、前記操作信号の入力が解除されてから、少なくとも前記操作コマンドが発生されるまで、前記画面上で前記画像の動きが停止されるように、前記制御コマンドの発生を制御する
制御方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009240592A JP4702475B2 (ja) | 2008-12-25 | 2009-10-19 | 入力装置、ハンドヘルド装置及び制御方法 |
EP09252764A EP2202607A2 (en) | 2008-12-25 | 2009-12-10 | Input apparatus, handheld apparatus and control method |
TW098142532A TWI428792B (zh) | 2008-12-25 | 2009-12-11 | 輸入設備,手持設備,及控制方法 |
US12/644,638 US8413077B2 (en) | 2008-12-25 | 2009-12-22 | Input apparatus, handheld apparatus, and control method |
KR1020090130807A KR20100075767A (ko) | 2008-12-25 | 2009-12-24 | 입력 장치, 핸드 헬드 장치 및 제어 방법 |
CN200910260158.1A CN101763172B (zh) | 2008-12-25 | 2009-12-25 | 输入装置、手持式装置和控制方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008330554 | 2008-12-25 | ||
JP2008330554 | 2008-12-25 | ||
JP2009240592A JP4702475B2 (ja) | 2008-12-25 | 2009-10-19 | 入力装置、ハンドヘルド装置及び制御方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011029612A Division JP2011108270A (ja) | 2008-12-25 | 2011-02-15 | 入力装置、ハンドヘルド装置及び制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010170527A JP2010170527A (ja) | 2010-08-05 |
JP4702475B2 true JP4702475B2 (ja) | 2011-06-15 |
Family
ID=42101860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009240592A Active JP4702475B2 (ja) | 2008-12-25 | 2009-10-19 | 入力装置、ハンドヘルド装置及び制御方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8413077B2 (ja) |
EP (1) | EP2202607A2 (ja) |
JP (1) | JP4702475B2 (ja) |
KR (1) | KR20100075767A (ja) |
CN (1) | CN101763172B (ja) |
TW (1) | TWI428792B (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5464416B2 (ja) | 2008-10-31 | 2014-04-09 | ソニー株式会社 | 入力装置および方法、並びにプログラム |
JP2010152493A (ja) | 2008-12-24 | 2010-07-08 | Sony Corp | 入力装置、制御装置及び入力装置の制御方法 |
EP2455841A3 (en) * | 2010-11-22 | 2015-07-15 | Samsung Electronics Co., Ltd. | Apparatus and method for selecting item using movement of object |
US8994646B2 (en) | 2010-12-17 | 2015-03-31 | Microsoft Corporation | Detecting gestures involving intentional movement of a computing device |
US9244545B2 (en) | 2010-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Touch and stylus discrimination and rejection for contact sensitive computing devices |
US8988398B2 (en) | 2011-02-11 | 2015-03-24 | Microsoft Corporation | Multi-touch input device with orientation sensing |
US8982045B2 (en) * | 2010-12-17 | 2015-03-17 | Microsoft Corporation | Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device |
KR101212629B1 (ko) * | 2010-12-30 | 2013-01-09 | (주)누리봄 | 체감형 콘텐츠 제공 시스템 |
US9201520B2 (en) | 2011-02-11 | 2015-12-01 | Microsoft Technology Licensing, Llc | Motion and context sharing for pen-based computing inputs |
CN102184549B (zh) * | 2011-04-29 | 2012-10-10 | 闫文闻 | 一种运动参数确定方法、装置和运动辅助设备 |
KR101805922B1 (ko) * | 2011-08-01 | 2017-12-07 | 엘지이노텍 주식회사 | 포인터 이동 값 보정 방법 및 이를 사용하는 3d 포인팅 디바이스 |
US20130103446A1 (en) * | 2011-10-20 | 2013-04-25 | Microsoft Corporation | Information sharing democratization for co-located group meetings |
CN102495681B (zh) * | 2011-11-23 | 2014-07-09 | 江苏惠通集团有限责任公司 | 具有触摸按键的控制设备 |
US8902181B2 (en) | 2012-02-07 | 2014-12-02 | Microsoft Corporation | Multi-touch-movement gestures for tablet computing devices |
US9423877B2 (en) * | 2012-02-24 | 2016-08-23 | Amazon Technologies, Inc. | Navigation approaches for multi-dimensional input |
JP5550124B2 (ja) * | 2012-08-17 | 2014-07-16 | Necシステムテクノロジー株式会社 | 入力装置、機器、入力方法およびプログラム |
KR102049475B1 (ko) * | 2013-01-08 | 2020-01-08 | 삼성전자주식회사 | 입력 장치, 디스플레이 장치 및 제어 방법 |
FR3002338A1 (fr) * | 2013-02-15 | 2014-08-22 | France Telecom | Procede de segmentation temporelle d'un geste instrumente, dispositif et terminal associes |
US9294539B2 (en) | 2013-03-14 | 2016-03-22 | Microsoft Technology Licensing, Llc | Cooperative federation of digital devices via proxemics and device micro-mobility |
JP6277786B2 (ja) * | 2014-03-11 | 2018-02-14 | トヨタ自動車株式会社 | 車両用操作装置 |
US9727161B2 (en) | 2014-06-12 | 2017-08-08 | Microsoft Technology Licensing, Llc | Sensor correlation for pen and touch-sensitive computing device interaction |
US9870083B2 (en) | 2014-06-12 | 2018-01-16 | Microsoft Technology Licensing, Llc | Multi-device multi-user sensor correlation for pen and computing device interaction |
US9817109B2 (en) * | 2015-02-27 | 2017-11-14 | Texas Instruments Incorporated | Gesture recognition using frequency modulated continuous wave (FMCW) radar with low angle resolution |
CN105487685A (zh) * | 2015-11-20 | 2016-04-13 | 小米科技有限责任公司 | 空鼠遥控器的优化方法、装置和终端设备 |
EP3518222B1 (en) | 2018-01-30 | 2020-08-19 | Alexander Swatek | Laser pointer |
US11329722B2 (en) | 2020-03-27 | 2022-05-10 | Relative Dynamics Incorporated | Optical terminals |
CN111679748B (zh) * | 2020-06-04 | 2021-06-22 | 苏州浩创信息科技有限公司 | 滚轮装置及使用该滚轮装置的移动式电子设备 |
US11270547B2 (en) * | 2020-06-18 | 2022-03-08 | Feiloli Electronic Co., Ltd. | Contactless game controller |
CN113312102B (zh) * | 2021-05-27 | 2024-03-19 | 维沃移动通信有限公司 | 控制方法和电子设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002287891A (ja) * | 2001-01-19 | 2002-10-04 | Nagano Fujitsu Component Kk | ポインティングデバイス、携帯型情報機器、信号処理方法及び回路基板製造方法 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5453758A (en) | 1992-07-31 | 1995-09-26 | Sony Corporation | Input apparatus |
JPH07284166A (ja) * | 1993-03-12 | 1995-10-27 | Mitsubishi Electric Corp | 遠隔操作装置 |
JP3264291B2 (ja) | 1993-05-14 | 2002-03-11 | ソニー株式会社 | コントロールシステム |
JP3857504B2 (ja) | 1993-05-21 | 2006-12-13 | ソニー株式会社 | 入力装置、制御システム |
DE69627945T2 (de) * | 1995-03-03 | 2004-02-26 | Koninklijke Philips Electronics N.V. | System mit einer tragbaren steuerungseinrichtung |
KR100694238B1 (ko) * | 2000-09-28 | 2007-03-14 | 가부시키가이샤 리코 | 구조편집방법, 영상구조편집방법, 오브젝트의 내용구조관리방법, 오브젝트의 내용구조표시방법, 컨텐츠관리방법 및 기록매체 |
US8460103B2 (en) * | 2004-06-18 | 2013-06-11 | Igt | Gesture controlled casino gaming system |
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
JP2007535774A (ja) * | 2004-04-30 | 2007-12-06 | ヒルクレスト・ラボラトリーズ・インコーポレイテッド | 自由空間ポインティングデバイスにおける意図的でない動きを除去するための方法およびデバイス |
KR101192514B1 (ko) * | 2004-04-30 | 2012-10-17 | 힐크레스트 래보래토리스, 인크. | 틸트 보상과 향상된 사용성을 갖는 3d 포인팅 장치 |
US7519223B2 (en) * | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
JP4438557B2 (ja) | 2004-08-10 | 2010-03-24 | ソニー株式会社 | 撮像装置、情報処理装置及び情報処理方法、並びにコンピュータ・プログラム |
US7761814B2 (en) * | 2004-09-13 | 2010-07-20 | Microsoft Corporation | Flick gesture |
KR100687737B1 (ko) * | 2005-03-19 | 2007-02-27 | 한국전자통신연구원 | 양손 제스쳐에 기반한 가상 마우스 장치 및 방법 |
US20060224994A1 (en) * | 2005-04-01 | 2006-10-05 | International Business Machines Corporation | Method, system and computer program product for preventing inadvertent selection within a graphical user interface |
JP4166767B2 (ja) * | 2005-05-25 | 2008-10-15 | 株式会社スクウェア・エニックス | 情報処理装置及びポインタの移動表示方法、プログラム並びに記録媒体 |
US7380722B2 (en) * | 2005-07-28 | 2008-06-03 | Avago Technologies Ecbu Ip Pte Ltd | Stabilized laser pointer |
US7574628B2 (en) * | 2005-11-14 | 2009-08-11 | Hadi Qassoudi | Clickless tool |
US20070113207A1 (en) * | 2005-11-16 | 2007-05-17 | Hillcrest Laboratories, Inc. | Methods and systems for gesture classification in 3D pointing devices |
KR100772909B1 (ko) * | 2006-05-30 | 2007-11-05 | 삼성전자주식회사 | 이미지 검색 방법 및 장치 |
US8196052B2 (en) * | 2006-06-30 | 2012-06-05 | International Business Machines Corporation | System and method to display a web page as scheduled by a user |
DE112007003689B4 (de) * | 2007-10-19 | 2022-06-09 | Razer (Asia-Pacific) Pte. Ltd. | Verfahren und System zur Erkennung und Korrektur von unbeabsichtigten Verlagerungen |
US8696458B2 (en) * | 2008-02-15 | 2014-04-15 | Thales Visionix, Inc. | Motion tracking system and method using camera and non-camera sensors |
US7975243B2 (en) * | 2008-02-25 | 2011-07-05 | Samsung Electronics Co., Ltd. | System and method for television control using hand gestures |
US8184092B2 (en) * | 2008-05-22 | 2012-05-22 | International Business Machines Corporation | Simulation of writing on game consoles through the use of motion-sensing technology |
US8516561B2 (en) * | 2008-09-29 | 2013-08-20 | At&T Intellectual Property I, L.P. | Methods and apparatus for determining user authorization from motion of a gesture-based control unit |
-
2009
- 2009-10-19 JP JP2009240592A patent/JP4702475B2/ja active Active
- 2009-12-10 EP EP09252764A patent/EP2202607A2/en not_active Withdrawn
- 2009-12-11 TW TW098142532A patent/TWI428792B/zh not_active IP Right Cessation
- 2009-12-22 US US12/644,638 patent/US8413077B2/en active Active
- 2009-12-24 KR KR1020090130807A patent/KR20100075767A/ko not_active Application Discontinuation
- 2009-12-25 CN CN200910260158.1A patent/CN101763172B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002287891A (ja) * | 2001-01-19 | 2002-10-04 | Nagano Fujitsu Component Kk | ポインティングデバイス、携帯型情報機器、信号処理方法及び回路基板製造方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2202607A2 (en) | 2010-06-30 |
CN101763172B (zh) | 2014-09-17 |
JP2010170527A (ja) | 2010-08-05 |
TW201035816A (en) | 2010-10-01 |
US20100169843A1 (en) | 2010-07-01 |
TWI428792B (zh) | 2014-03-01 |
US8413077B2 (en) | 2013-04-02 |
KR20100075767A (ko) | 2010-07-05 |
CN101763172A (zh) | 2010-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4702475B2 (ja) | 入力装置、ハンドヘルド装置及び制御方法 | |
JP5440167B2 (ja) | 入力装置、制御装置、制御方法及びハンドヘルド装置 | |
US10747338B2 (en) | Input apparatus, control apparatus, control system, control method, and handheld apparatus | |
USRE47070E1 (en) | Input apparatus, control apparatus, control system, and control method | |
US8552977B2 (en) | Input apparatus, control apparatus, control system, handheld apparatus, and control method | |
JP5163291B2 (ja) | 入力装置、制御装置、制御システム及び制御方法 | |
EP2353065B1 (en) | Controlling and accessing content using motion processing on mobile devices | |
US20150169160A1 (en) | Input apparatus, control apparatus, control system, electronic apparatus, and control method | |
JPWO2009072471A1 (ja) | 入力装置、制御装置、制御システム、制御方法及びハンドヘルド装置 | |
JP2010218260A (ja) | 入力装置、制御装置、制御システム及び制御方法 | |
JP5412812B2 (ja) | 入力装置、制御装置、制御システム、及びハンドヘルド装置 | |
US8456422B2 (en) | Input apparatus, control apparatus, control system, control method, and handheld apparatus | |
JP2011108270A (ja) | 入力装置、ハンドヘルド装置及び制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110221 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4702475 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |