JP2017509957A - 情報処理の方法、装置、およびデバイス - Google Patents
情報処理の方法、装置、およびデバイス Download PDFInfo
- Publication number
- JP2017509957A JP2017509957A JP2016548222A JP2016548222A JP2017509957A JP 2017509957 A JP2017509957 A JP 2017509957A JP 2016548222 A JP2016548222 A JP 2016548222A JP 2016548222 A JP2016548222 A JP 2016548222A JP 2017509957 A JP2017509957 A JP 2017509957A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- user
- gesture information
- information
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 102
- 238000003672 processing method Methods 0.000 title claims abstract description 36
- 238000000034 method Methods 0.000 claims abstract description 58
- 238000010200 validation analysis Methods 0.000 claims abstract description 17
- 210000003811 finger Anatomy 0.000 claims description 252
- 210000004932 little finger Anatomy 0.000 claims description 61
- 210000004553 finger phalanx Anatomy 0.000 claims description 48
- 210000001145 finger joint Anatomy 0.000 claims description 46
- 210000000707 wrist Anatomy 0.000 claims description 43
- 238000010079 rubber tapping Methods 0.000 claims description 27
- 238000006073 displacement reaction Methods 0.000 claims description 20
- 238000012546 transfer Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000009471 action Effects 0.000 abstract description 27
- 238000010586 diagram Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 12
- 210000003205 muscle Anatomy 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 210000003813 thumb Anatomy 0.000 description 9
- 230000004044 response Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000011022 operating instruction Methods 0.000 description 3
- 238000005096 rolling process Methods 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000005057 finger movement Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/0202—Constructional details or processes of manufacture of the input device
- G06F3/0219—Special purpose keyboards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- Dermatology (AREA)
- General Health & Medical Sciences (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- Biomedical Technology (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
ユーザのモード有効化ジェスチャ情報を取得することと、
モード有効化ジェスチャ情報に対応する入力モードを有効にすることであって、入力モードがキーボード入力モードおよびマウス入力モードを含む、有効にすることと、
入力モードにおいてユーザのジェスチャ情報を取得することであって、ジェスチャ情報がタップジェスチャ情報および/またはスライドジェスチャ情報を含む、取得することと、
ジェスチャ情報と操作命令との間のプリセット対応関係に従って、ジェスチャ情報に対応する操作命令を生成することと
を含む、情報処理方法を開示する。
入力モードにおいてユーザのジェスチャ情報を取得することは、キーボード入力モードにおいて、ユーザにより人差し指、中指、薬指、および小指の任意の指の関節または指の節骨をタップするタップジェスチャ情報を取得することを含み、
それに対応して、ジェスチャ情報と操作命令との間のプリセット対応関係に従って、ジェスチャ情報に対応する操作命令を生成することは、
タップジェスチャ情報と操作命令との間のプリセット対応関係に従って、タップジェスチャ情報に対応する操作命令を生成すること
を含む。
マウス入力モードにおいて、ユーザの人差し指、中指、薬指、および小指の上でスライドするスライドジェスチャ情報、ならびに/または指の関節もしくは指の節骨をタップするタップジェスチャ情報を取得すること
を含み、
それに対応して、ジェスチャ情報と操作命令との間のプリセット対応関係に従って、ジェスチャ情報に対応する操作命令を生成することは、
スライドジェスチャ情報および/またはタップジェスチャ情報と操作命令との間のプリセット対応関係に従って、スライドジェスチャ情報および/またはタップジェスチャ情報に対応する操作命令を生成すること
を含み、
スライドジェスチャ情報はマウスポインタの動き追跡情報に対応し、タップジェスチャ情報は左または右のマウスボタンのトリガ情報に対応する。
モード有効化ジェスチャ情報がユーザの人差し指、中指、薬指、および小指を伸ばすジェスチャに対応するとき、キーボード入力モードを有効にすることと、
モード有効化ジェスチャ情報がユーザの手のひらの方へ人差し指、中指、薬指、および小指を丸めるジェスチャに対応するとき、マウス入力モードを有効にすることと
を含み、
モード有効化ジェスチャ情報またはジェスチャ情報は、ユーザの手首または手のひらに配置されたセンサによって検出される。
ユーザの手首または手のひらに配置されたセンサがユーザの入力モード有効化ジェスチャ動作またはジェスチャ動作を検出するとき、手首または手のひらの各部の圧力値を取得することと、
圧力値に従って、ユーザの手首または手のひらの上のセンサの変位値を決定することと、
変位値に従って、ユーザによって入力されたモード有効化ジェスチャ情報を特定することと
を含む。
端末が操作命令に応答するように、端末に操作命令を送信すること
をさらに含む。
キーボード入力モードに入ったことを確認することであって、キーボード入力モードにおいて、ユーザの人差し指、中指、薬指、および小指の12個の指の関節または指の節骨と、12キーのキーパッドの12個のキーとの間に1対1の対応関係が存在する、確認することと、
ユーザにより人差し指、中指、薬指、および小指の任意の指の関節または指の節骨をタップするタップジェスチャ情報を取得することと、
タップジェスチャ情報と操作命令との間のプリセット対応関係に従って、タップジェスチャ情報に対応する操作命令を生成することと
を含む、情報処理方法が開示される。
マウス入力モードに入ったことを確認することと、
人差し指、中指、薬指、および小指の上のユーザのスライドジェスチャ情報、ならびに/または、ユーザにより人差し指、中指、薬指、および小指の指の関節もしくは指の節骨をタップするタップジェスチャ情報を取得することと、
スライドジェスチャ情報および/またはタップジェスチャ情報と操作命令との間のプリセット対応関係に従って、スライドジェスチャ情報および/またはタップジェスチャ情報に対応する操作命令を生成することと
を含む、情報処理方法が開示され、
スライドジェスチャ情報はマウスポインタの動き追跡情報に対応し、タップジェスチャ情報は左または右のマウスボタンのトリガ情報に対応する。
ユーザのモード有効化ジェスチャ情報を取得するように構成された第1の取得モジュールと、
モード有効化ジェスチャ情報に対応する入力モードを有効にするように構成されたモード有効化モジュールであって、入力モードがキーボード入力モードおよびマウス入力モードを含む、モード有効化モジュールと、
入力モードにおいてユーザのジェスチャ情報を取得するように構成された第2の取得モジュールであって、ジェスチャ情報がタップジェスチャ情報および/またはスライドジェスチャ情報を含む、第2の取得モジュールと、
ジェスチャ情報と操作命令との間のプリセット対応関係に従って、ジェスチャ情報に対応する操作命令を生成するように構成された命令生成モジュールと
を含む、情報処理装置が開示される。
キーボード入力モードにおいて、ユーザにより人差し指、中指、薬指、および小指の任意の指の関節または指の節骨をタップするタップジェスチャ情報を取得すること
を行うように構成される。
マウス入力モードにおいて、ユーザの人差し指、中指、薬指、および小指の上でスライドするスライドジェスチャ情報、ならびに/または指の関節もしくは指の節骨をタップするタップジェスチャ情報を取得すること
を行うように構成され、
スライドジェスチャ情報はマウスポインタの動き追跡情報に対応し、タップジェスチャ情報は左または右のマウスボタンのトリガ情報に対応する。
モード有効化ジェスチャ情報がユーザの人差し指、中指、薬指、および小指を伸ばすジェスチャに対応するとき、キーボード入力モードを有効にするように構成された第1のモード有効化モジュールと、
モード有効化ジェスチャ情報がユーザの手のひらの方へ人差し指、中指、薬指、および小指を丸めるジェスチャに対応するとき、マウス入力モードを有効にするように構成された第2のモード有効化モジュールと
を含む。
ユーザの手首または手のひらに配置されたセンサがユーザの入力モード有効化ジェスチャ動作またはジェスチャ動作を検出するとき、手首または手のひらの各部の圧力値を取得するように構成された取得サブモジュールと、
圧力値に従って、ユーザの手首または手のひらの上のセンサの変位値を決定するように構成された計算モジュールと、
変位値に従って、ユーザによって入力されたモード有効化ジェスチャ情報を特定するように構成されたジェスチャ特定モジュールと
を含む。
端末が操作命令に応答するように、端末に操作命令を送信するように構成された命令転送モジュール
をさらに含む。
システムがキーボード入力モードに入ったことを確認するように構成された第1の入力有効化モジュールであって、キーボード入力モードにおいて、ユーザの人差し指、中指、薬指、および小指の12個の指の関節または指の節骨と、12キーのキーパッドの12個のキーとの間に1対1の対応関係が存在する、第1の入力有効化モジュールと、
ユーザにより人差し指、中指、薬指、および小指の任意の指の関節または指の節骨をタップするタップジェスチャ情報を取得するように構成された第1のジェスチャ取得モジュールと、
タップジェスチャ情報と操作命令との間のプリセット対応関係に従って、タップジェスチャ情報に対応する操作命令を生成するように構成された第1の命令生成モジュールと
を含む、情報処理装置が開示される。
システムがマウス入力モードに入ったことを確認するように構成された第2の入力有効化モジュールと、
人差し指、中指、薬指、および小指の上のユーザのスライドジェスチャ情報、ならびに/または、ユーザにより人差し指、中指、薬指、および小指の指の関節もしくは指の節骨をタップするタップジェスチャ情報を取得するように構成された第2のジェスチャ取得モジュールと、
スライドジェスチャ情報および/またはタップジェスチャ情報と操作命令との間のプリセット対応関係に従って、スライドジェスチャ情報および/またはタップジェスチャ情報に対応する操作命令を生成するように構成された第2の命令生成モジュールと
を含む、情報処理装置が開示される。
ジェスチャ情報は、タップジェスチャ情報および/またはスライドジェスチャ情報を含む。
ユーザのモード有効化ジェスチャ情報を取得するように構成された第1の取得モジュール801と、
モード有効化ジェスチャ情報に対応する入力モードを有効にするように構成されたモード有効化モジュール802であって、
入力モードがキーボード入力モードおよびマウス入力モードを含む、モード有効化モジュール802と、
入力モードにおいてユーザのジェスチャ情報を取得するように構成された第2の取得モジュール803であって、
ジェスチャ情報がタップジェスチャ情報および/またはスライドジェスチャ情報を含む、第2の取得モジュール803と、
ジェスチャ情報と操作命令との間のプリセット対応関係に従って、ジェスチャ情報に対応する操作命令を生成するように構成された命令生成モジュール804と、
端末が操作命令に応答するように、端末に操作命令を送信するように構成された命令転送モジュール1001と
を含む場合がある。
システムがキーボード入力モードに入ったことを確認するように構成された第1の入力有効化モジュール1101であって、キーボード入力モードにおいて、ユーザの人差し指、中指、薬指、および小指の12個の指の関節または指の節骨と、12キーのキーパッドの12個のキーとの間に1対1の対応関係が存在する、第1の入力有効化モジュール1101と、
ユーザにより人差し指、中指、薬指、および小指の任意の指の関節または指の節骨をタップするタップジェスチャ情報を取得するように構成された第1のジェスチャ取得モジュール1102と、
タップジェスチャ情報と操作命令との間のプリセット対応関係に従って、タップジェスチャ情報に対応する操作命令を生成するように構成された第1の命令生成モジュール1103と
を含む場合がある。
システムがマウス入力モードに入ったことを確認するように構成された第2の入力有効化モジュール1201と、
人差し指、中指、薬指、および小指の上のユーザのスライドジェスチャ情報、ならびに/または、ユーザにより人差し指、中指、薬指、および小指の指の関節もしくは指の節骨をタップするタップジェスチャ情報を取得するように構成された第2のジェスチャ取得モジュール1202と、
スライドジェスチャ情報および/またはタップジェスチャ情報と操作命令との間のプリセット対応関係に従って、スライドジェスチャ情報および/またはタップジェスチャ情報に対応する操作命令を生成するように構成された第2の命令生成モジュール1203と
を含む場合がある。
ユーザのモード有効化ジェスチャ情報を取得することであって、モード有効化ジェスチャ情報がセンサによって検出され、次いでプロセッサ1402によって転送される場合がある、取得することと、
モード有効化ジェスチャ情報に対応する入力モードを有効にすることであって、入力モードがキーボード入力モードおよびマウス入力モードを含む、有効にすることと、
入力モードにおいてユーザのジェスチャ情報を取得することであって、ジェスチャ情報がタップジェスチャ情報および/またはスライドジェスチャ情報を含む、取得することと、
ジェスチャ情報と操作命令との間のプリセット対応関係に従って、ジェスチャ情報に対応する操作命令を生成することと
を行うために、メモリ1404に記憶されたプログラム命令を起動するように構成される。
ユーザのモード有効化ジェスチャ情報を取得することであって、モード有効化ジェスチャ情報がセンサによって検出される場合がある、取得することと、
モード有効化ジェスチャ情報に対応する入力モードを有効にすることであって、入力モードがキーボード入力モードおよびマウス入力モードを含む、有効にすることと、
入力モードにおいてユーザのジェスチャ情報を取得することであって、ジェスチャ情報がタップジェスチャ情報および/またはスライドジェスチャ情報を含む、取得することと、
ジェスチャ情報と操作命令との間のプリセット対応関係に従って、ジェスチャ情報に対応する操作命令を生成することと、
操作命令に応答することと
を行うために、メモリ1503に記憶されたプログラム命令を起動するように構成される。
801 第1の取得モジュール
802 モード有効化モジュール
803 第2の取得モジュール
804 命令生成モジュール
901 取得サブモジュール
902 計算モジュール
903 ジェスチャ特定モジュール
100 情報処理装置
1001 命令転送モジュール
110 情報処理装置
1101 第1の入力有効化モジュール
1102 第1のジェスチャ取得モジュール
1103 第1の命令生成モジュール
120 情報処理装置
1201 第2の入力有効化モジュール
1202 第2のジェスチャ取得モジュール
1203 第2の命令生成モジュール
140 情報処理デバイス
1401 センサ
1402 プロセッサ
1403 通信装置
1404 メモリ
1405 バス
150 インテリジェント端末
1501 センサ
1502 プロセッサ
1503 メモリ
1504 バス
Claims (23)
- ユーザのモード有効化ジェスチャ情報を取得するステップと、
前記モード有効化ジェスチャ情報に対応する入力モードを有効にするステップであって、前記入力モードがキーボード入力モードおよびマウス入力モードを含む、ステップと、
前記入力モードにおいて前記ユーザのジェスチャ情報を取得するステップであって、前記ジェスチャ情報がタップジェスチャ情報および/またはスライドジェスチャ情報を含む、ステップと、
ジェスチャ情報と操作命令との間のプリセット対応関係に従って、前記ジェスチャ情報に対応する操作命令を生成するステップと
を含む、情報処理方法。 - 前記入力モードが前記キーボード入力モードであるとき、ユーザの人差し指、中指、薬指、および小指の12個の指の関節または指の節骨と、12キーのキーパッドの12個のキーとの間に1対1の対応関係が存在し、
前記入力モードにおいて前記ユーザのジェスチャ情報を取得する前記ステップが、前記キーボード入力モードにおいて、前記ユーザにより前記人差し指、前記中指、前記薬指、および前記小指の任意の指の関節または指の節骨をタップするタップジェスチャ情報を取得するステップを含み、
それに対応して、ジェスチャ情報と操作命令との間のプリセット対応関係に従って、前記ジェスチャ情報に対応する操作命令を生成する前記ステップが、
タップジェスチャ情報と操作命令との間のプリセット対応関係に従って、前記タップジェスチャ情報に対応する操作命令を生成するステップ
を含む、請求項1に記載の情報処理方法。 - 前記入力モードが前記マウス入力モードであるとき、前記入力モードにおいて前記ユーザのジェスチャ情報を取得する前記ステップが、
前記マウス入力モードにおいて、前記ユーザの人差し指、中指、薬指、および小指の上でスライドするスライドジェスチャ情報、ならびに/または指の関節もしくは指の節骨をタップするタップジェスチャ情報を取得するステップ
を含み、
それに対応して、ジェスチャ情報と操作命令との間のプリセット対応関係に従って、前記ジェスチャ情報に対応する操作命令を生成する前記ステップが、
スライドジェスチャ情報および/またはタップジェスチャ情報と操作命令との間のプリセット対応関係に従って、前記スライドジェスチャ情報および/または前記タップジェスチャ情報に対応する操作命令を生成するステップ
を含む、請求項1に記載の情報処理方法。 - 前記スライドジェスチャ情報がマウスポインタの動き追跡情報に対応し、前記タップジェスチャ情報が左または右のマウスボタンのトリガ情報に対応する、請求項3に記載の情報処理方法。
- 前記モード有効化ジェスチャ情報に対応する入力モードを有効にする前記ステップが、
前記モード有効化ジェスチャ情報が前記ユーザの人差し指、中指、薬指、および小指を伸ばすジェスチャに対応するとき、前記キーボード入力モードを有効にするステップと、
前記モード有効化ジェスチャ情報が前記ユーザの手のひらの方へ前記人差し指、前記中指、前記薬指、および前記小指を丸めるジェスチャに対応するとき、前記マウス入力モードを有効にするステップと
を含む、請求項1に記載の情報処理方法。 - 前記モード有効化ジェスチャ情報または前記ジェスチャ情報が、前記ユーザの手首または手のひらに配置されたセンサによって検出される、請求項1に記載の情報処理方法。
- ユーザのモード有効化ジェスチャ情報を取得する前記ステップ、または前記入力モードにおいて前記ユーザのジェスチャ情報を取得する前記ステップが、
前記ユーザの前記手首または前記手のひらに配置された前記センサが前記ユーザの入力モード有効化ジェスチャ動作またはジェスチャ動作を検出するとき、前記手首または前記手のひらの各部の圧力値を取得するステップと、
前記圧力値に従って、前記ユーザの前記手首または前記手のひらの上の前記センサの変位値を決定するステップと、
前記変位値に従って、前記ユーザによって入力されたモード有効化ジェスチャ情報を特定するステップと
を含む、請求項6に記載の情報処理方法。 - ジェスチャ情報と操作命令との間のプリセット対応関係に従って、前記ジェスチャ情報に対応する操作命令を生成する前記ステップの後に、前記方法が、
端末が前記操作命令に応答するように、前記端末に前記操作命令を送信するステップ
をさらに含む、請求項1から7のいずれか一項に記載の情報処理方法。 - キーボード入力モードに入ったことを確認するステップであって、前記キーボード入力モードにおいて、ユーザの人差し指、中指、薬指、および小指の12個の指の関節または指の節骨と、12キーのキーパッドの12個のキーとの間に1対1の対応関係が存在する、ステップと、
前記ユーザにより前記人差し指、前記中指、前記薬指、および前記小指の任意の指の関節または指の節骨をタップするタップジェスチャ情報を取得するステップと、
タップジェスチャ情報と操作命令との間のプリセット対応関係に従って、前記タップジェスチャ情報に対応する操作命令を生成するステップと
を含む、情報処理方法。 - マウス入力モードに入ったことを確認するステップと、
人差し指、中指、薬指、および小指の上のユーザのスライドジェスチャ情報、ならびに/または、前記ユーザにより前記人差し指、前記中指、前記薬指、および前記小指の指の関節もしくは指の節骨をタップするタップジェスチャ情報を取得するステップと、
スライドジェスチャ情報および/またはタップジェスチャ情報と操作命令との間のプリセット対応関係に従って、前記スライドジェスチャ情報および/または前記タップジェスチャ情報に対応する操作命令を生成するステップと
を含む、情報処理方法。 - 前記スライドジェスチャ情報がマウスポインタの動き追跡情報に対応し、前記タップジェスチャ情報が左または右のマウスボタンのトリガ情報に対応する、請求項10に記載の情報処理方法。
- ユーザのモード有効化ジェスチャ情報を取得するように構成された第1の取得モジュールと、
前記モード有効化ジェスチャ情報に対応する入力モードを有効にするように構成されたモード有効化モジュールであって、前記入力モードがキーボード入力モードおよびマウス入力モードを含む、モード有効化モジュールと、
前記入力モードにおいて前記ユーザのジェスチャ情報を取得するように構成された第2の取得モジュールであって、前記ジェスチャ情報がタップジェスチャ情報および/またはスライドジェスチャ情報を含む、第2の取得モジュールと、
ジェスチャ情報と操作命令との間のプリセット対応関係に従って、前記ジェスチャ情報に対応する操作命令を生成するように構成された命令生成モジュールと
を備える、情報処理装置。 - 前記入力モードが前記キーボード入力モードであるとき、ユーザの人差し指、中指、薬指、および小指の12個の指の関節または指の節骨と、12キーのキーパッドの12個のキーとの間に12対1の対応関係が存在し、前記第2の取得モジュールが、具体的に、
前記キーボード入力モードにおいて、前記ユーザにより前記人差し指、前記中指、前記薬指、および前記小指の任意の指の関節または指の節骨をタップするタップジェスチャ情報を取得すること
を行うように構成される、請求項12に記載の情報処理装置。 - 前記入力モードが前記マウス入力モードであるとき、前記第2の取得モジュールが、具体的に、
前記マウス入力モードにおいて、前記ユーザの人差し指、中指、薬指、および小指の上でスライドするスライドジェスチャ情報、ならびに/または指の関節もしくは指の節骨をタップするタップジェスチャ情報を取得すること
を行うように構成される、請求項12に記載の情報処理装置。 - 前記スライドジェスチャ情報がマウスポインタの動き追跡情報に対応し、前記タップジェスチャ情報が左または右のマウスボタンのトリガ情報に対応する、請求項14に記載の情報処理装置。
- 前記モード有効化モジュールが、
前記モード有効化ジェスチャ情報が前記ユーザの人差し指、中指、薬指、および小指を伸ばすジェスチャに対応するとき、前記キーボード入力モードを有効にするように構成された第1のモード有効化モジュールと、
前記モード有効化ジェスチャ情報が前記ユーザの手のひらの方へ前記人差し指、前記中指、前記薬指、および前記小指を丸めるジェスチャに対応するとき、前記マウス入力モードを有効にするように構成された第2のモード有効化モジュールと
を備える、請求項12に記載の情報処理装置。 - 前記モード有効化ジェスチャ情報または前記ジェスチャ情報が、前記ユーザの手首または手のひらに配置されたセンサによって検出される、請求項12に記載の情報処理装置。
- 前記第1の取得モジュールまたは前記第2の取得モジュールが、
前記ユーザの前記手首または前記手のひらに配置された前記センサが前記ユーザの入力モード有効化ジェスチャ動作またはジェスチャ動作を検出するとき、前記手首または前記手のひらの各部の圧力値を取得するように構成された取得サブモジュールと、
前記圧力値に従って、前記ユーザの前記手首または前記手のひらの上の前記センサの変位値を決定するように構成された計算モジュールと、
前記変位値に従って、前記ユーザによって入力されたモード有効化ジェスチャ情報を特定するように構成されたジェスチャ特定モジュールと
を備える、請求項17に記載の情報処理装置。 - 端末が前記操作命令に応答するように、前記端末に前記操作命令を送信するように構成された命令転送モジュール
をさらに備える、請求項12から18のいずれか一項に記載の情報処理装置。 - システムがキーボード入力モードに入ったことを確認するように構成された第1の入力有効化モジュールであって、前記キーボード入力モードにおいて、ユーザの人差し指、中指、薬指、および小指の12個の指の関節または指の節骨と、12キーのキーパッドの12個のキーとの間に1対1の対応関係が存在する、第1の入力有効化モジュールと、
前記ユーザにより前記人差し指、前記中指、前記薬指、および前記小指の任意の指の関節または指の節骨をタップするタップジェスチャ情報を取得するように構成された第1のジェスチャ取得モジュールと、
タップジェスチャ情報と操作命令との間のプリセット対応関係に従って、前記タップジェスチャ情報に対応する操作命令を生成するように構成された第1の命令生成モジュールと
を備える、情報処理装置。 - システムがマウス入力モードに入ったことを確認するように構成された第2の入力有効化モジュールと、
人差し指、中指、薬指、および小指の上のユーザのスライドジェスチャ情報、ならびに/または、前記ユーザにより前記人差し指、前記中指、前記薬指、および前記小指の指の関節もしくは指の節骨をタップするタップジェスチャ情報を取得するように構成された第2のジェスチャ取得モジュールと、
スライドジェスチャ情報および/またはタップジェスチャ情報と操作命令との間のプリセット対応関係に従って、前記スライドジェスチャ情報および/または前記タップジェスチャ情報に対応する操作命令を生成するように構成された第2の命令生成モジュールと
を備える、情報処理装置。 - 請求項12から19のいずれか一項に記載の情報処理装置を備えるか、請求項20に記載の情報処理装置を備えるか、または請求項21に記載の情報処理装置を備える、情報処理デバイス。
- 請求項12から21のいずれか一項に記載の情報処理装置を備える、インテリジェント端末。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410038752.7A CN103793057B (zh) | 2014-01-26 | 2014-01-26 | 信息处理方法、装置及设备 |
CN201410038752.7 | 2014-01-26 | ||
PCT/CN2015/071424 WO2015110063A1 (zh) | 2014-01-26 | 2015-01-23 | 信息处理方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017509957A true JP2017509957A (ja) | 2017-04-06 |
JP6249316B2 JP6249316B2 (ja) | 2017-12-20 |
Family
ID=50668815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016548222A Active JP6249316B2 (ja) | 2014-01-26 | 2015-01-23 | 情報処理の方法、装置、およびデバイス |
Country Status (8)
Country | Link |
---|---|
US (1) | US9965044B2 (ja) |
EP (1) | EP3089018B1 (ja) |
JP (1) | JP6249316B2 (ja) |
KR (1) | KR101877823B1 (ja) |
CN (1) | CN103793057B (ja) |
BR (1) | BR112016017206B1 (ja) |
RU (1) | RU2662408C2 (ja) |
WO (1) | WO2015110063A1 (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103793057B (zh) * | 2014-01-26 | 2017-02-01 | 华为终端有限公司 | 信息处理方法、装置及设备 |
CN105373321A (zh) * | 2014-08-13 | 2016-03-02 | 中兴通讯股份有限公司 | 移动终端功能对象的控制方法及装置、移动终端 |
CN105138136A (zh) * | 2014-09-15 | 2015-12-09 | 北京至感传感器技术研究院有限公司 | 手势识别装置、手势识别方法及手势识别系统 |
CN105278699A (zh) * | 2014-09-29 | 2016-01-27 | 北京至感传感器技术研究院有限公司 | 易穿戴式手势识别装置 |
CN105204645A (zh) * | 2014-10-02 | 2015-12-30 | 北京至感传感器技术研究院有限公司 | 易穿戴式手势识别装置 |
CN104461365A (zh) * | 2014-12-11 | 2015-03-25 | 三星电子(中国)研发中心 | 终端的触控方法和装置 |
CN104750253B (zh) * | 2015-03-11 | 2018-10-12 | 苏州佳世达电通有限公司 | 一种供用户进行体感输入的电子装置 |
CN106073126B (zh) * | 2015-04-27 | 2018-05-18 | 陈明洙 | Led安全背包 |
US10638316B2 (en) * | 2016-05-25 | 2020-04-28 | Intel Corporation | Wearable computer apparatus with same hand user authentication |
CN110986917B (zh) * | 2016-06-13 | 2021-10-01 | 原相科技股份有限公司 | 轨迹感测系统及其轨迹感测方法 |
CN106569610A (zh) * | 2016-11-09 | 2017-04-19 | 李飞洋 | 一种通过大拇指弯曲度检测实现电子设备输入功能的方法 |
CN107329574A (zh) * | 2017-06-30 | 2017-11-07 | 联想(北京)有限公司 | 用于电子设备的输入方法和系统 |
CN107301415B (zh) * | 2017-08-08 | 2024-03-22 | 方超 | 手势采集系统 |
WO2019028650A1 (zh) * | 2017-08-08 | 2019-02-14 | 方超 | 手势采集系统 |
CN107403178A (zh) * | 2017-08-08 | 2017-11-28 | 方超 | 手势采集系统 |
CN107632716B (zh) * | 2017-11-07 | 2024-03-08 | 王可攀 | 一种输入信息处理装置及其处理输入信息的方法 |
CN208752575U (zh) * | 2018-07-27 | 2019-04-16 | 深圳市志海和科技有限公司 | 一种键盘 |
CN109377789A (zh) * | 2018-10-26 | 2019-02-22 | 珠海中电数码科技有限公司 | 一种组合式智能全面屏黑板 |
US10902250B2 (en) * | 2018-12-21 | 2021-01-26 | Microsoft Technology Licensing, Llc | Mode-changeable augmented reality interface |
CN109859452A (zh) * | 2019-03-11 | 2019-06-07 | 汕头大学 | 一种穿戴式控制器及使用该控制器的方法 |
CN109947245A (zh) * | 2019-03-12 | 2019-06-28 | 合肥工业大学 | 用于操作腕表式设备的手指动作指令集及其生成方法 |
CN110209265A (zh) * | 2019-04-04 | 2019-09-06 | 北京理工大学 | 一种基于手指触碰检测的输入系统 |
CN110162183B (zh) * | 2019-05-30 | 2022-11-01 | 努比亚技术有限公司 | 凌空手势操作方法、可穿戴设备及计算机可读存储介质 |
CN110780732A (zh) * | 2019-09-06 | 2020-02-11 | 北京理工大学 | 一种基于空间定位以及手指点击的输入系统 |
CN111897477B (zh) * | 2020-08-04 | 2022-06-17 | 上海传英信息技术有限公司 | 移动终端的操控方法、移动终端及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030056278A1 (en) * | 2001-09-26 | 2003-03-27 | Lung Kuo | Structure of finger keyboard |
JP2005352739A (ja) * | 2004-06-10 | 2005-12-22 | Nec Corp | 携帯端末装置、入力システム、情報入力方法 |
JP2008135033A (ja) * | 2007-11-26 | 2008-06-12 | Olympus Corp | 手姿勢動作検出装置 |
WO2013126905A2 (en) * | 2012-02-24 | 2013-08-29 | Moscarillo Thomas J | Gesture recognition devices and methods |
JP2014115688A (ja) * | 2012-12-06 | 2014-06-26 | Sharp Corp | 文字入力システムおよび文字入力方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7109970B1 (en) | 2000-07-01 | 2006-09-19 | Miller Stephen S | Apparatus for remotely controlling computers and other electronic appliances/devices using a combination of voice commands and finger movements |
CN1482527A (zh) * | 2002-09-15 | 2004-03-17 | 廖华勇 | 手指动作录入技术及其设备 |
US7362305B2 (en) * | 2004-02-10 | 2008-04-22 | Senseboard Technologies Ab | Data input device |
KR20060022984A (ko) | 2004-09-08 | 2006-03-13 | 홍광석 | 키패드 글러브 장치 |
RU2457532C2 (ru) | 2006-03-10 | 2012-07-27 | Кенджи Йошида | Система обработки ввода для устройства обработки информации |
US20090091530A1 (en) | 2006-03-10 | 2009-04-09 | Kenji Yoshida | System for input to information processing device |
CN200944218Y (zh) * | 2006-06-30 | 2007-09-05 | 山东大学 | 指套式数字键盘装置 |
US20080129694A1 (en) * | 2006-11-30 | 2008-06-05 | Liberty Reach Inc. | Keyless user interface device |
CN101226438A (zh) * | 2008-01-18 | 2008-07-23 | 于非 | 一种手套形计算机鼠标 |
CN201638148U (zh) * | 2009-09-10 | 2010-11-17 | 深圳市亿思达显示科技有限公司 | 一种手套式虚拟输入装置 |
US8436821B1 (en) * | 2009-11-20 | 2013-05-07 | Adobe Systems Incorporated | System and method for developing and classifying touch gestures |
US8421634B2 (en) * | 2009-12-04 | 2013-04-16 | Microsoft Corporation | Sensing mechanical energy to appropriate the body for data input |
CN201780561U (zh) * | 2010-07-29 | 2011-03-30 | 陈誉航 | 指套式鼠标 |
US20120242584A1 (en) | 2011-03-22 | 2012-09-27 | Nokia Corporation | Method and apparatus for providing sight independent activity reports responsive to a touch gesture |
US9218058B2 (en) * | 2011-06-16 | 2015-12-22 | Daniel Bress | Wearable digital input device for multipoint free space data collection and analysis |
WO2013049861A1 (en) | 2011-09-29 | 2013-04-04 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
US8743052B1 (en) * | 2012-11-24 | 2014-06-03 | Eric Jeffrey Keller | Computing interface system |
CN103793057B (zh) | 2014-01-26 | 2017-02-01 | 华为终端有限公司 | 信息处理方法、装置及设备 |
-
2014
- 2014-01-26 CN CN201410038752.7A patent/CN103793057B/zh active Active
-
2015
- 2015-01-23 BR BR112016017206A patent/BR112016017206B1/pt active IP Right Grant
- 2015-01-23 WO PCT/CN2015/071424 patent/WO2015110063A1/zh active Application Filing
- 2015-01-23 RU RU2016134720A patent/RU2662408C2/ru active
- 2015-01-23 KR KR1020167022600A patent/KR101877823B1/ko active IP Right Grant
- 2015-01-23 JP JP2016548222A patent/JP6249316B2/ja active Active
- 2015-01-23 EP EP15740661.2A patent/EP3089018B1/en active Active
- 2015-01-23 US US15/114,033 patent/US9965044B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030056278A1 (en) * | 2001-09-26 | 2003-03-27 | Lung Kuo | Structure of finger keyboard |
JP2005352739A (ja) * | 2004-06-10 | 2005-12-22 | Nec Corp | 携帯端末装置、入力システム、情報入力方法 |
JP2008135033A (ja) * | 2007-11-26 | 2008-06-12 | Olympus Corp | 手姿勢動作検出装置 |
WO2013126905A2 (en) * | 2012-02-24 | 2013-08-29 | Moscarillo Thomas J | Gesture recognition devices and methods |
JP2014115688A (ja) * | 2012-12-06 | 2014-06-26 | Sharp Corp | 文字入力システムおよび文字入力方法 |
Also Published As
Publication number | Publication date |
---|---|
US20160342217A1 (en) | 2016-11-24 |
KR20160110992A (ko) | 2016-09-23 |
RU2016134720A3 (ja) | 2018-02-28 |
CN103793057A (zh) | 2014-05-14 |
CN103793057B (zh) | 2017-02-01 |
EP3089018A1 (en) | 2016-11-02 |
WO2015110063A1 (zh) | 2015-07-30 |
KR101877823B1 (ko) | 2018-07-12 |
RU2662408C2 (ru) | 2018-07-25 |
EP3089018A4 (en) | 2017-01-18 |
RU2016134720A (ru) | 2018-02-28 |
BR112016017206B1 (pt) | 2018-08-28 |
JP6249316B2 (ja) | 2017-12-20 |
EP3089018B1 (en) | 2019-01-09 |
US9965044B2 (en) | 2018-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6249316B2 (ja) | 情報処理の方法、装置、およびデバイス | |
Whitmire et al. | Digitouch: Reconfigurable thumb-to-finger input and text entry on head-mounted displays | |
EP3037946B1 (en) | Remote controller, information processing method and system | |
US20190204929A1 (en) | Devices and methods for dynamic association of user input with mobile device actions | |
WO2012070682A1 (ja) | 入力装置及び入力装置の制御方法 | |
WO2016076376A1 (ja) | ウェアラブル装置 | |
EP3139256B1 (en) | Wearable touch apparatus and wearable touch method | |
EP3488328B1 (en) | Stylus communication channels | |
JP2015531527A (ja) | 入力装置 | |
TWI631507B (zh) | 動作判識裝置及其控制方法 | |
US10120444B2 (en) | Wearable device | |
JP5222967B2 (ja) | 携帯端末 | |
JP2005303870A (ja) | 端末装置 | |
TW201812559A (zh) | 輸入系統與輸入方法 | |
JP2015053034A (ja) | 入力装置 | |
CN107632716B (zh) | 一种输入信息处理装置及其处理输入信息的方法 | |
CN111176422B (zh) | 智能穿戴设备及其操作方法、计算机可读存储介质 | |
CN103809846A (zh) | 一种功能调用方法及电子设备 | |
JPWO2020202488A1 (ja) | 検出されたユーザの意思を利用した端末装置 | |
CN104122997A (zh) | 信息处理方法及电子设备 | |
CN113849066A (zh) | 一种信息无障碍交互装置、系统、方法及存储介质 | |
KR20160083110A (ko) | 입력 커맨드 생성 | |
JP2018173961A (ja) | 入力デバイス、入力方法及び入力プログラム | |
JP2015055908A (ja) | 情報入力装置および情報入力システム | |
CN108351729A (zh) | 触摸设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170627 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20170921 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171109 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6249316 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |