JP6353982B2 - タッチインタラクション処理方法、装置及びシステム - Google Patents
タッチインタラクション処理方法、装置及びシステム Download PDFInfo
- Publication number
- JP6353982B2 JP6353982B2 JP2017520458A JP2017520458A JP6353982B2 JP 6353982 B2 JP6353982 B2 JP 6353982B2 JP 2017520458 A JP2017520458 A JP 2017520458A JP 2017520458 A JP2017520458 A JP 2017520458A JP 6353982 B2 JP6353982 B2 JP 6353982B2
- Authority
- JP
- Japan
- Prior art keywords
- touch
- start time
- electromyogram signal
- hand gesture
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims description 43
- 238000003672 processing method Methods 0.000 title claims description 18
- 238000000034 method Methods 0.000 claims description 52
- 230000008569 process Effects 0.000 claims description 21
- 238000012935 Averaging Methods 0.000 claims description 10
- 230000005540 biological transmission Effects 0.000 claims description 7
- 210000003811 finger Anatomy 0.000 description 44
- 210000004247 hand Anatomy 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 11
- 210000003813 thumb Anatomy 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 7
- 230000003183 myoelectrical effect Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 210000000707 wrist Anatomy 0.000 description 5
- 238000010422 painting Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 208000033748 Device issues Diseases 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/04166—Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04105—Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Dermatology (AREA)
- Neurosurgery (AREA)
- Neurology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Description
筋電図信号収集装置によって送信された第1の情報と位置キャプチャリング装置によって送信された第2の情報とを受信するステップであって、前記第1の情報は、前記筋電図信号収集装置の装置識別子、ユーザがタッチを実行するハンドジェスチャ及び第1のタッチスタート時間を含み、前記第2の情報は、前記ユーザが前記タッチを実行するタッチポイントの数、第2のタッチスタート時間及び各タッチポイントの座標情報を含み、前記第1のタッチスタート時間は、前記ユーザがタッチ操作を実行し、前記筋電図信号収集装置によって識別されるスタート時間であり、前記第2のタッチスタート時間は、前記ユーザが前記タッチ操作を実行し、前記位置キャプチャリング装置によって識別されるスタート時間である、受信するステップと、
前記第1のタッチスタート時間と前記第2のタッチスタート時間との間の時間差が所定の閾値未満であり、前記ハンドジェスチャに対応するタッチポイントの数が前記第2の情報に含まれる前記タッチポイントの数と同じであると判断された場合、タッチ指示を生成するステップであって、前記タッチ指示は、前記筋電図信号収集装置の前記装置識別子、前記ハンドジェスチャ及び各タッチポイントの前記座標情報を含む、生成するステップと、
前記タッチ指示に対応するインタラクション処理を実行するステップと、
を有する方法を提供する。
前記ユーザが前記タッチを実行し、前記筋電図信号収集装置によって送信された前記ハンドジェスチャと、前記位置キャプチャリング装置によって送信された各タッチポイントの前記座標情報とを継続的に受信し、前記タッチ指示を更新するステップを有する。
筋電図信号収集装置が、複数のチャネルから表面筋電図信号S1を周期的に収集するステップと、
前記筋電図信号収集装置が、前記表面筋電図信号S1の時間周波数領域特徴に従って、ユーザがタッチを実行したハンドジェスチャを判断し、前記ハンドジェスチャによる第1のタッチスタート時間を判断するステップであって、前記第1のタッチスタート時間は、前記ユーザがタッチ操作を実行し、前記筋電図信号収集装置によって識別されるスタート時間である、判断するステップと、
前記筋電図信号収集装置が、第1の情報を処理装置に送信するステップであって、前記処理装置は、位置キャプチャリング装置によって送信される前記第1の情報及び第2の情報に従ってタッチ指示を生成し、対応するインタラクション処理を実行し、前記第1の情報は、前記筋電図信号収集装置の装置識別子、前記ハンドジェスチャ及び前記第1のタッチスタート時間を含み、前記第2の情報は、前記ユーザが前記タッチを実行したタッチポイントの数、第2のタッチスタート時間及び各タッチポイントの座標情報を含み、前記第2のタッチスタート時間は、前記ユーザが前記タッチ操作を実行し、前記位置キャプチャリング装置によって識別されたスタート時間である、送信するステップと、
を有する方法を提供する。
筋電図信号収集装置によって送信された第1の情報と位置キャプチャリング装置によって送信された第2の情報とを受信するよう構成される情報受信モジュールであって、前記第1の情報は、前記筋電図信号収集装置の装置識別子、ユーザがタッチを実行するハンドジェスチャ及び第1のタッチスタート時間を含み、前記第2の情報は、前記ユーザが前記タッチを実行するタッチポイントの数、第2のタッチスタート時間及び各タッチポイントの座標情報を含み、前記第1のタッチスタート時間は、前記ユーザがタッチ操作を実行し、前記筋電図信号収集装置によって識別されるスタート時間であり、前記第2のタッチスタート時間は、前記ユーザが前記タッチ操作を実行し、前記位置キャプチャリング装置によって識別されるスタート時間である、情報受信モジュールと、
前記第1のタッチスタート時間と前記第2のタッチスタート時間との間の時間差が所定の閾値未満であり、前記ハンドジェスチャに対応するタッチポイントの数が前記第2の情報に含まれる前記タッチポイントの数と同じであると判断された場合、タッチ指示を生成するよう構成される指示生成モジュールであって、前記タッチ指示は、前記筋電図信号収集装置の前記装置識別子、前記ハンドジェスチャ及び各タッチポイントの前記座標情報を含む、指示生成モジュールと、
前記タッチ指示に対応するインタラクション処理を実行するよう構成される指示実行モジュールと、
を有する処理装置を提供する。
複数のチャネルから表面筋電図信号S1を周期的に収集するよう構成される収集モジュールと、
前記表面筋電図信号S1の時間周波数領域特徴に従って、ユーザがタッチを実行したハンドジェスチャを判断し、前記ハンドジェスチャによる第1のタッチスタート時間を判断するよう構成される処理モジュールであって、前記第1のタッチスタート時間は、前記ユーザがタッチ操作を実行し、前記筋電図信号収集装置によって識別されるスタート時間である、処理モジュールと、
第1の情報を処理装置に送信するよう構成される送信モジュールであって、前記処理装置は、前記第1の情報及び位置キャプチャリング装置によって送信される第2の情報に従ってタッチ指示を生成し、対応するインタラクション処理を実行し、前記第1の情報は、前記筋電図信号収集装置の装置識別子、前記ハンドジェスチャ及び前記第1のタッチスタート時間を含み、前記第2の情報は、前記ユーザが前記タッチを実行したタッチポイントの数、第2のタッチスタート時間及び各タッチポイントの座標情報を含み、前記第2のタッチスタート時間は、前記ユーザが前記タッチ操作を実行し、前記位置キャプチャリング装置によって識別されたスタート時間である、送信モジュールと、
を有する収集装置を提供する。
筋電図信号収集装置が、表面筋電図信号S1に対して重畳及び平均化を実行することによってシングルチャネル筋電図信号S2を取得し、スライディング時間ウィンドウを使用することによってシングルチャネル筋電図信号S2の平均振幅を計算し、操作力Sとしてシングルチャネル筋電図信号S2の平均振幅を使用することを含むものであってもよい。
ハンドジェスチャG及び操作力Sを取得した後、テーブルを検索することによって第1のタッチスタート時間T1を判断し、ここで、各ハンドジェスチャGに対応する操作力の第1の所定の閾値S_th(G)はテーブルに予め記憶され、表面筋電図信号S1に従って取得された操作力Sが第1の所定の閾値S_th(G)より大きい場合、現在のシステム時間を取得し、第1のタッチスタート時間T1として現在のシステム時間を使用することを含むものであってもよい。
筋電図信号収集装置によって送信された第1の情報と位置キャプチャリング装置によって送信された第2の情報とを受信するよう構成される情報受信モジュール11であって、第1の情報は、筋電図信号収集装置の装置識別子、ユーザがタッチを実行するハンドジェスチャ及び第1のタッチスタート時間を含み、第2の情報は、ユーザがタッチを実行するタッチポイントの数、第2のタッチスタート時間及び各タッチポイントの座標情報を含み、第1のタッチスタート時間は、ユーザがタッチ操作を実行し、筋電図信号収集装置によって識別されるスタート時間であり、第2のタッチスタート時間は、ユーザがタッチ操作を実行し、位置キャプチャリング装置によって識別されるスタート時間である、情報受信モジュール11と、
第1のタッチスタート時間と第2のタッチスタート時間との間の時間差が所定の閾値未満であり、ハンドジェスチャに対応するタッチポイントの数が第2の情報に含まれるタッチポイントの数と同じであると判断された場合、タッチ指示を生成するよう構成される指示生成モジュール13であって、タッチ指示は、筋電図信号収集装置の装置識別子、ハンドジェスチャ及び各タッチポイントの座標情報を含む、指示生成モジュール13と、
タッチ指示に対応するインタラクション処理を実行するよう構成される指示実行モジュール15と、を有してもよい。
複数のチャネルから表面筋電図信号S1を周期的に収集するよう構成される収集モジュール21と、
表面筋電図信号S1の時間周波数領域特徴に従って、ユーザがタッチを実行したハンドジェスチャを判断し、ハンドジェスチャによる第1のタッチスタート時間を判断するよう構成される処理モジュール23であって、第1のタッチスタート時間は、ユーザがタッチ操作を実行し、筋電図信号収集装置によって識別されるスタート時間である、処理モジュール23と、
第1の情報を処理装置に送信するよう構成される送信モジュール25であって、処理装置は、第1の情報及び位置キャプチャリング装置によって送信される第2の情報に従ってタッチ指示を生成し、対応するインタラクション処理を実行する送信モジュール25とを有してもよい。第1の情報は、筋電図信号収集装置の装置識別子、ハンドジェスチャ及び第1のタッチスタート時間を含む。第2の情報は、ユーザがタッチを実行したタッチポイントの数、第2のタッチスタート時間及び各タッチポイントの座標情報を含む。第2のタッチスタート時間は、ユーザがタッチ操作を実行し、位置キャプチャリング装置によって識別されたスタート時間である。
タッチ指示に対応するインタラクション処理を実行する。
複数のチャネルから表面筋電図信号S1を周期的に収集するステップと、
表面筋電図信号S1の時間周波数領域特徴に従って、ユーザがタッチを実行したハンドジェスチャを判断し、ハンドジェスチャによる第1のタッチスタート時間を判断するステップであって、第1のタッチスタート時間は、ユーザがタッチ操作を実行し、筋電図信号収集装置によって識別されるスタート時間である、判断するステップと、
である。
Claims (23)
- タッチインタラクション処理方法であって、
筋電図信号収集装置によって送信された第1の情報と位置キャプチャリング装置によって送信された第2の情報とを受信するステップであって、前記第1の情報は、前記筋電図信号収集装置の装置識別子、ユーザがタッチを実行するハンドジェスチャ及び第1のタッチスタート時間を含み、前記第2の情報は、前記ユーザが前記タッチを実行するタッチポイントの数、第2のタッチスタート時間及び各タッチポイントの座標情報を含み、前記第1のタッチスタート時間は、前記ユーザがタッチ操作を実行し、前記筋電図信号収集装置によって識別されるスタート時間であり、前記第2のタッチスタート時間は、前記ユーザが前記タッチ操作を実行し、前記位置キャプチャリング装置によって識別されるスタート時間である、受信するステップと、
前記第1のタッチスタート時間と前記第2のタッチスタート時間との間の時間差が所定の閾値未満であり、前記ハンドジェスチャに対応するタッチポイントの数が前記第2の情報に含まれる前記タッチポイントの数と同じであると判断された場合、タッチ指示を生成するステップであって、前記タッチ指示は、前記筋電図信号収集装置の前記装置識別子、前記ハンドジェスチャ及び各タッチポイントの前記座標情報を含む、生成するステップと、
前記タッチ指示に対応するインタラクション処理を実行するステップと、
を有する方法。 - 当該方法は更に、
前記ユーザが前記タッチを実行し、前記筋電図信号収集装置によって送信された前記ハンドジェスチャと、前記位置キャプチャリング装置によって送信された各タッチポイントの前記座標情報とを継続的に受信し、前記タッチ指示を更新するステップを有する、請求項1記載の方法。 - 前記第1の情報は更に、前記ユーザが前記タッチを実行する操作力を含み、前記タッチ指示は更に、前記操作力を含む、請求項1記載の方法。
- 当該方法は更に、
前記筋電図信号収集装置によって送信される、前記ユーザが前記タッチを実行する前記ハンドジェスチャ及び前記ユーザが前記タッチを実行する前記操作力と、前記位置キャプチャリング装置によって送信される各タッチポイントの前記座標情報とを持続的に受信し、前記タッチ指示を更新するステップを有する、請求項3記載の方法。 - 当該方法は更に、
前記操作力が第2の所定の閾値未満であると判断された場合、前記タッチ指示を削除するステップを有する、請求項4記載の方法。 - タッチインタラクション処理方法であって、
筋電図信号収集装置が、複数のチャネルから表面筋電図信号S1を周期的に収集するステップと、
前記筋電図信号収集装置が、前記表面筋電図信号S1の時間周波数領域特徴に従って、ユーザがタッチを実行したハンドジェスチャを判断し、前記ハンドジェスチャによる第1のタッチスタート時間を判断するステップであって、前記第1のタッチスタート時間は、前記ユーザがタッチ操作を実行し、前記筋電図信号収集装置によって識別されるスタート時間である、判断するステップと、
前記筋電図信号収集装置が、第1の情報を処理装置に送信するステップであって、前記処理装置は、前記第1の情報及び位置キャプチャリング装置によって送信される第2の情報に従ってタッチ指示を生成し、対応するインタラクション処理を実行し、前記第1の情報は、前記筋電図信号収集装置の装置識別子、前記ハンドジェスチャ及び前記第1のタッチスタート時間を含み、前記第2の情報は、前記ユーザが前記タッチを実行したタッチポイントの数、第2のタッチスタート時間及び各タッチポイントの座標情報を含み、前記第2のタッチスタート時間は、前記ユーザが前記タッチ操作を実行し、前記位置キャプチャリング装置によって識別されたスタート時間である、送信するステップと、
を有する方法。 - 前記筋電図信号収集装置が、前記表面筋電図信号S1の時間周波数領域特徴に従って、ユーザがタッチを実行したハンドジェスチャを判断するステップは、
前記筋電図信号収集装置が、ハンドジェスチャのタイプに基づき前記表面筋電図信号S1のものである振幅及び周波数に従って前記ハンドジェスチャを判断するステップを含む、請求項6記載の方法。 - 前記筋電図信号収集装置が、前記表面筋電図信号S1の時間周波数領域特徴に従って、前記ユーザが前記タッチを実行した操作力を判断するステップであって、前記第1の情報は更に前記操作力を含み、前記ハンドジェスチャに従って第1のタッチスタート時間を判断することは、前記ハンドジェスチャ及び前記操作力に従って前記第1のタッチスタート時間を判断することである、判断するステップを更に有する、請求項6記載の方法。
- 前記ユーザが前記タッチを実行した操作力を判断するステップは、
前記筋電図信号収集装置が、前記表面筋電図信号S1に対して重畳及び平均化を実行することによってシングルチャネル筋電図信号S2を取得し、スライディング時間ウィンドウを使用することによって前記シングルチャネル筋電図信号S2の平均振幅を計算し、前記操作力Sとして前記シングルチャネル筋電図信号S2の平均振幅を使用するステップを含む、請求項8記載の方法。 - 前記ハンドジェスチャ及び前記操作力に従って前記第1のタッチスタート時間を判断するステップは、
前記ハンドジェスチャ及び前記操作力を取得した後、テーブルを検索することによって前記第1のタッチスタート時間を判断するステップであって、各ハンドジェスチャに対応する操作力の第1の所定の閾値は前記テーブルに予め記憶される、判断するステップと、
前記表面筋電図信号S1に従って取得された前記操作力が前記第1の所定の閾値より大きい場合、現在のシステム時間を取得し、前記第1のタッチスタート時間として前記現在のシステム時間を使用するステップと、
を含む、請求項8記載の方法。 - 前記処理装置が前記第1の情報及び位置キャプチャリング装置によって送信される第2の情報に従ってタッチ指示を生成することは、前記第1のタッチスタート時間と前記第2のタッチスタート時間との間の時間差が所定の閾値未満であり、前記ハンドジェスチャに対応するタッチポイントの数が前記第2の情報に含まれる前記タッチポイントの数と同じであると判断した後、前記処理装置は前記タッチ指示を生成することを含む、請求項6乃至10何れか一項記載の方法。
- 処理装置であって、
筋電図信号収集装置によって送信された第1の情報と位置キャプチャリング装置によって送信された第2の情報とを受信するよう構成される情報受信モジュールであって、前記第1の情報は、前記筋電図信号収集装置の装置識別子、ユーザがタッチを実行するハンドジェスチャ及び第1のタッチスタート時間を含み、前記第2の情報は、前記ユーザが前記タッチを実行するタッチポイントの数、第2のタッチスタート時間及び各タッチポイントの座標情報を含み、前記第1のタッチスタート時間は、前記ユーザがタッチ操作を実行し、前記筋電図信号収集装置によって識別されるスタート時間であり、前記第2のタッチスタート時間は、前記ユーザが前記タッチ操作を実行し、前記位置キャプチャリング装置によって識別されるスタート時間である、情報受信モジュールと、
前記第1のタッチスタート時間と前記第2のタッチスタート時間との間の時間差が所定の閾値未満であり、前記ハンドジェスチャに対応するタッチポイントの数が前記第2の情報に含まれる前記タッチポイントの数と同じであると判断された場合、タッチ指示を生成するよう構成される指示生成モジュールであって、前記タッチ指示は、前記筋電図信号収集装置の前記装置識別子、前記ハンドジェスチャ及び各タッチポイントの前記座標情報を含む、指示生成モジュールと、
前記タッチ指示に対応するインタラクション処理を実行するよう構成される指示実行モジュールと、
を有する処理装置。 - 前記指示生成モジュールは更に、
前記ユーザが前記タッチを実行し、前記筋電図信号収集装置によって送信され、前記情報受信モジュールによって継続的に受信される前記ハンドジェスチャと、前記位置キャプチャリング装置によって送信された各タッチポイントの前記座標情報とに従って、前記タッチ指示を更新するよう構成される、請求項12記載の処理装置。 - 前記第1の情報は更に、前記ユーザが前記タッチを実行する操作力を含み、前記タッチ指示は更に、前記操作力を含む、請求項12記載の処理装置。
- 前記指示生成モジュールは更に、前記筋電図信号収集装置によって送信され、前記情報受信モジュールによって継続的に受信される、前記ユーザが前記タッチを実行する前記ハンドジェスチャ及び前記ユーザが前記タッチを実行する前記操作力と、前記位置キャプチャリング装置によって送信される各タッチポイントの前記座標情報とに従って、前記タッチ指示を更新するよう構成される、請求項14記載の処理装置。
- 前記指示生成モジュールは更に、
前記操作力が第2の所定の閾値未満であると判断された場合、前記タッチ指示が終了したと判断し、前記タッチ指示を削除するよう構成される、請求項15記載の処理装置。 - 筋電図信号収集装置であって、
複数のチャネルから表面筋電図信号S1を周期的に収集するよう構成される収集モジュールと、
前記表面筋電図信号S1の時間周波数領域特徴に従って、ユーザがタッチを実行したハンドジェスチャを判断し、前記ハンドジェスチャによる第1のタッチスタート時間を判断するよう構成される処理モジュールであって、前記第1のタッチスタート時間は、前記ユーザがタッチ操作を実行し、前記筋電図信号収集装置によって識別されるスタート時間である、処理モジュールと、
第1の情報を処理装置に送信するよう構成される送信モジュールであって、前記処理装置は、前記第1の情報及び位置キャプチャリング装置によって送信される第2の情報に従ってタッチ指示を生成し、対応するインタラクション処理を実行し、前記第1の情報は、前記筋電図信号収集装置の装置識別子、前記ハンドジェスチャ及び前記第1のタッチスタート時間を含み、前記第2の情報は、前記ユーザが前記タッチを実行したタッチポイントの数、第2のタッチスタート時間及び各タッチポイントの座標情報を含み、前記第2のタッチスタート時間は、前記ユーザが前記タッチ操作を実行し、前記位置キャプチャリング装置によって識別されたスタート時間である、送信モジュールと、
を有する収集装置。 - 処理モジュールが、前記表面筋電図信号S1の時間周波数領域特徴に従って、ユーザがタッチを実行したハンドジェスチャを判断することは、
前記処理モジュールが、ハンドジェスチャのタイプに基づき前記表面筋電図信号S1のものである振幅及び周波数に従って前記ハンドジェスチャを判断することを含む、請求項17記載の収集装置。 - 前記処理モジュールは更に、前記表面筋電図信号S1の時間周波数領域特徴に従って、前記ユーザが前記タッチを実行した操作力を判断するよう構成され、前記第1の情報は更に前記操作力を含み、前記ハンドジェスチャに従って第1のタッチスタート時間を判断することは、前記ハンドジェスチャ及び前記操作力に従って前記第1のタッチスタート時間を判断することである、請求項17記載の収集装置。
- 前記処理モジュールが、前記ユーザが前記タッチを実行した操作力を判断することは、
前記処理モジュールが、前記表面筋電図信号S1に対して重畳及び平均化を実行することによってシングルチャネル筋電図信号S2を取得し、スライディング時間ウィンドウを使用することによって前記シングルチャネル筋電図信号S2の平均振幅を計算し、前記操作力Sとして前記シングルチャネル筋電図信号S2の平均振幅を使用することを含む、請求項19記載の収集装置。 - 前記処理装置が、前記ハンドジェスチャ及び前記操作力に従って前記第1のタッチスタート時間を判断することは、
前記ハンドジェスチャ及び前記操作力を取得した後、前記処理モジュールが、テーブルを検索することによって前記第1のタッチスタート時間を判断し、各ハンドジェスチャに対応する操作力の第1の所定の閾値は前記テーブルに予め記憶され、
前記表面筋電図信号S1に従って取得された前記操作力が前記第1の所定の閾値より大きい場合、現在のシステム時間を取得し、前記第1のタッチスタート時間として前記現在のシステム時間を使用することを含む、請求項19記載の収集装置。 - 前記処理装置が前記第1の情報及び位置キャプチャリング装置によって送信される第2の情報に従ってタッチ指示を生成することは、前記第1のタッチスタート時間と前記第2のタッチスタート時間との間の時間差が所定の閾値未満であり、前記ハンドジェスチャに対応するタッチポイントの数が前記第2の情報に含まれる前記タッチポイントの数と同じであると判断した後、前記処理装置は前記タッチ指示を生成することを含む、請求項17乃至21何れか一項記載の収集装置。
- タッチ処理システムであって、
位置キャプチャリング装置と、
請求項12乃至16何れか一項記載の処理装置と、
請求項17乃至22何れか一項記載の少なくとも1つの筋電図信号収集装置と、
を有し、
前記筋電図信号収集装置と前記位置キャプチャリング装置との双方は、前記処理装置に通信接続されるタッチ処理システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410549003.0A CN105573536B (zh) | 2014-10-16 | 2014-10-16 | 触控交互的处理方法、装置和系统 |
CN201410549003.0 | 2014-10-16 | ||
PCT/CN2015/080243 WO2016058387A1 (zh) | 2014-10-16 | 2015-05-29 | 触控交互的处理方法、装置和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017534980A JP2017534980A (ja) | 2017-11-24 |
JP6353982B2 true JP6353982B2 (ja) | 2018-07-04 |
Family
ID=55746078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017520458A Active JP6353982B2 (ja) | 2014-10-16 | 2015-05-29 | タッチインタラクション処理方法、装置及びシステム |
Country Status (7)
Country | Link |
---|---|
US (1) | US10372325B2 (ja) |
EP (1) | EP3200051B1 (ja) |
JP (1) | JP6353982B2 (ja) |
KR (1) | KR101875350B1 (ja) |
CN (1) | CN105573536B (ja) |
BR (1) | BR112017007752B1 (ja) |
WO (1) | WO2016058387A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11921471B2 (en) | 2013-08-16 | 2024-03-05 | Meta Platforms Technologies, Llc | Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source |
US20150124566A1 (en) | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
WO2015081113A1 (en) | 2013-11-27 | 2015-06-04 | Cezar Morun | Systems, articles, and methods for electromyography sensors |
JP6504256B2 (ja) | 2015-09-25 | 2019-04-24 | 株式会社リコー | 電子黒板、電子黒板の画像処理方法、及び電子黒板のプログラムを記録した記録媒体 |
US11635736B2 (en) | 2017-10-19 | 2023-04-25 | Meta Platforms Technologies, Llc | Systems and methods for identifying biological structures associated with neuromuscular source signals |
WO2020112986A1 (en) | 2018-11-27 | 2020-06-04 | Facebook Technologies, Inc. | Methods and apparatus for autocalibration of a wearable electrode sensor system |
US11150730B1 (en) | 2019-04-30 | 2021-10-19 | Facebook Technologies, Llc | Devices, systems, and methods for controlling computing devices via neuromuscular signals of users |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
US11481030B2 (en) | 2019-03-29 | 2022-10-25 | Meta Platforms Technologies, Llc | Methods and apparatus for gesture detection and classification |
US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
US11493993B2 (en) | 2019-09-04 | 2022-11-08 | Meta Platforms Technologies, Llc | Systems, methods, and interfaces for performing inputs based on neuromuscular control |
US11049053B2 (en) * | 2018-03-29 | 2021-06-29 | Ricoh Company, Ltd. | Communication terminal, sharing system, communication method, and non-transitory recording medium storing program |
WO2020061451A1 (en) * | 2018-09-20 | 2020-03-26 | Ctrl-Labs Corporation | Neuromuscular text entry, writing and drawing in augmented reality systems |
CN109542278B (zh) * | 2018-09-27 | 2022-02-11 | 江苏特思达电子科技股份有限公司 | 触摸数据的处理方法、装置及触摸设备 |
US10908783B2 (en) | 2018-11-06 | 2021-02-02 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with user interface objects and providing feedback |
CN111338516B (zh) * | 2020-02-26 | 2022-05-10 | 业成科技(成都)有限公司 | 手指触控的检测方法和装置、电子设备、存储介质 |
CN111783056B (zh) * | 2020-07-06 | 2024-05-14 | 诺百爱(杭州)科技有限责任公司 | 一种基于肌电信号识别用户身份的方法、装置和电子设备 |
CN112506379A (zh) * | 2020-12-21 | 2021-03-16 | 北京百度网讯科技有限公司 | 触控事件的处理方法、装置、设备以及存储介质 |
US11868531B1 (en) | 2021-04-08 | 2024-01-09 | Meta Platforms Technologies, Llc | Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof |
CN113126771A (zh) * | 2021-05-07 | 2021-07-16 | 浙江柔灵科技有限公司 | 一种具有反馈信息功能的肌电手势识别系统 |
CN114642440B (zh) * | 2022-05-23 | 2022-08-12 | 博睿康科技(常州)股份有限公司 | 获取刺激系统预设时长的方法、刺激系统及其调控方法 |
CN116243825B (zh) * | 2023-05-06 | 2023-07-25 | 成都市芯璨科技有限公司 | 一种基于电容检测的触控检测芯片及装置 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07248873A (ja) * | 1994-03-08 | 1995-09-26 | Sharp Corp | 筋電信号を用いた制御装置 |
JP2004534974A (ja) * | 2000-10-27 | 2004-11-18 | エロ・タッチシステムズ・インコーポレイテッド | 複数のタッチセンサを利用した接触確認式タッチスクリーン |
JP4099117B2 (ja) * | 2003-07-22 | 2008-06-11 | シャープ株式会社 | 仮想キーボードシステム |
US8441467B2 (en) | 2006-08-03 | 2013-05-14 | Perceptive Pixel Inc. | Multi-touch sensing display through frustrated total internal reflection |
US8022941B2 (en) | 2006-10-12 | 2011-09-20 | Disney Enterprises, Inc. | Multi-user touch screen |
US8581856B2 (en) * | 2009-05-27 | 2013-11-12 | Microsoft Corporation | Touch sensitive display apparatus using sensor input |
US20100310136A1 (en) | 2009-06-09 | 2010-12-09 | Sony Ericsson Mobile Communications Ab | Distinguishing right-hand input and left-hand input based on finger recognition |
JP4988016B2 (ja) | 2009-08-27 | 2012-08-01 | 韓國電子通信研究院 | 指の動き検出装置およびその方法 |
KR20110032640A (ko) | 2009-09-23 | 2011-03-30 | 삼성전자주식회사 | 멀티 터치 인식 디스플레이 장치 |
CN102117150A (zh) * | 2011-03-30 | 2011-07-06 | 汉王科技股份有限公司 | 字符后处理方法及系统 |
CN102184056B (zh) * | 2011-04-26 | 2013-02-13 | 广东威创视讯科技股份有限公司 | 多触摸点识别方法及装置 |
US8692799B1 (en) | 2011-07-05 | 2014-04-08 | Cypress Semiconductor Corporation | Single layer multi-touch capacitive sensor |
CN103930858A (zh) * | 2012-01-05 | 2014-07-16 | 索尼爱立信移动通讯有限公司 | 调整触摸输入的坐标 |
US9134807B2 (en) | 2012-03-02 | 2015-09-15 | Microsoft Technology Licensing, Llc | Pressure sensitive key normalization |
US9201546B2 (en) | 2012-03-09 | 2015-12-01 | Elo Touch Solutions, Inc. | Acoustic touch apparatus with multi-touch capability |
US8866771B2 (en) | 2012-04-18 | 2014-10-21 | International Business Machines Corporation | Multi-touch multi-user gestures on a multi-touch display |
US9011232B2 (en) | 2012-05-18 | 2015-04-21 | Universal Entertainment Corporation | Gaming machine and gaming method |
JP5929572B2 (ja) * | 2012-07-09 | 2016-06-08 | コニカミノルタ株式会社 | 操作表示装置およびプログラム |
US9223459B2 (en) | 2013-01-25 | 2015-12-29 | University Of Washington Through Its Center For Commercialization | Using neural signals to drive touch screen devices |
-
2014
- 2014-10-16 CN CN201410549003.0A patent/CN105573536B/zh active Active
-
2015
- 2015-05-29 KR KR1020177012912A patent/KR101875350B1/ko active IP Right Grant
- 2015-05-29 JP JP2017520458A patent/JP6353982B2/ja active Active
- 2015-05-29 EP EP15851451.3A patent/EP3200051B1/en active Active
- 2015-05-29 BR BR112017007752-3A patent/BR112017007752B1/pt active IP Right Grant
- 2015-05-29 WO PCT/CN2015/080243 patent/WO2016058387A1/zh active Application Filing
-
2017
- 2017-04-13 US US15/486,452 patent/US10372325B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR101875350B1 (ko) | 2018-07-05 |
EP3200051A1 (en) | 2017-08-02 |
EP3200051A4 (en) | 2017-09-20 |
US20170220245A1 (en) | 2017-08-03 |
WO2016058387A1 (zh) | 2016-04-21 |
EP3200051B1 (en) | 2018-12-12 |
CN105573536B (zh) | 2018-09-07 |
KR20170067873A (ko) | 2017-06-16 |
JP2017534980A (ja) | 2017-11-24 |
BR112017007752B1 (pt) | 2023-01-31 |
US10372325B2 (en) | 2019-08-06 |
CN105573536A (zh) | 2016-05-11 |
BR112017007752A2 (pt) | 2018-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6353982B2 (ja) | タッチインタラクション処理方法、装置及びシステム | |
US9978261B2 (en) | Remote controller and information processing method and system | |
CN102662462B (zh) | 电子装置、手势识别方法及手势应用方法 | |
CN104850341B (zh) | 一种移动终端及移动终端的应用图标显示方法 | |
US9946395B2 (en) | User interface method and apparatus | |
US20160034058A1 (en) | Mobile Device Input Controller For Secondary Display | |
US20180253163A1 (en) | Change of active user of a stylus pen with a multi-user interactive display | |
KR20160110992A (ko) | 정보 처리를 위한 방법, 장치, 및 디바이스 | |
CN104049874B (zh) | 触控笔的触摸笔迹生成方法和系统 | |
JP7213923B2 (ja) | ペアリング方法及び位置検出システム | |
CN113467647B (zh) | 皮肤与皮肤接触检测 | |
KR20110116463A (ko) | 인터페이스 방법 및 장치 | |
CN105302302A (zh) | 一种应用控制的方法及装置 | |
CN103135852B (zh) | 一种触摸屏设备及数据输入方法 | |
CN107273009A (zh) | 一种移动终端快速截屏的方法及系统 | |
JP2015088180A (ja) | 電子機器、その制御方法、及び制御プログラム | |
CN104363345A (zh) | 一种显示方法和电子设备 | |
JP2015215840A (ja) | 情報処理装置及び入力方法 | |
US20140143726A1 (en) | Method of choosing software button | |
CN111176421B (zh) | 可穿戴设备及其操控方法、操控系统和存储装置 | |
CN103150054B (zh) | 一种触摸屏设备及触摸与鼠标相结合的数据输入方法 | |
CN104484117A (zh) | 人机交互方法及装置 | |
CN207965847U (zh) | 一种触控控制设备 | |
US20210055861A1 (en) | Method for recognizing multiple capacitive styluses, touch control unit, touch panel and system | |
TW201839549A (zh) | 腳趾控制裝置及其控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180515 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180611 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6353982 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |