JP2017516242A - スマート機器の操作制御方法、装置、プログラム及び記憶媒体 - Google Patents
スマート機器の操作制御方法、装置、プログラム及び記憶媒体 Download PDFInfo
- Publication number
- JP2017516242A JP2017516242A JP2017501458A JP2017501458A JP2017516242A JP 2017516242 A JP2017516242 A JP 2017516242A JP 2017501458 A JP2017501458 A JP 2017501458A JP 2017501458 A JP2017501458 A JP 2017501458A JP 2017516242 A JP2017516242 A JP 2017516242A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- control
- slave device
- mapping relationship
- relationship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C17/00—Arrangements for transmitting signals characterised by the use of a wireless electrical link
- G08C17/02—Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L12/2816—Controlling appliance services of a home automation network by calling their functionalities
- H04L12/282—Controlling appliance services of a home automation network by calling their functionalities based on user interaction within the home
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C2201/00—Transmission systems of control signals via wireless link
- G08C2201/30—User interface
- G08C2201/32—Remote control based on movements, attitude of remote control device
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C2201/00—Transmission systems of control signals via wireless link
- G08C2201/70—Device selection
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C2201/00—Transmission systems of control signals via wireless link
- G08C2201/90—Additional features
- G08C2201/92—Universal remote control
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C2201/00—Transmission systems of control signals via wireless link
- G08C2201/90—Additional features
- G08C2201/93—Remote control using other portable devices, e.g. mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L12/2807—Exchanging configuration information on appliance services in a home automation network
- H04L12/2809—Exchanging configuration information on appliance services in a home automation network indicating that an appliance service is present in a home automation network
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Selective Calling Equipment (AREA)
Abstract
Description
第1のジェスチャー動作が検出されたとき、前記第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意するステップと、
第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器(a target controlled device)を特定するステップと、
前記目標スレーブ機器との制御関係を確立するステップと、
第3のジェスチャー動作を取得するステップと、
前記第3のジェスチャー動作および前記第1のマッピング関係に基づいて、前記第3のジェスチャー動作に対応する操作を前記目標スレーブ機器に実行させるように制御するステップと、を含み、
前記第1のマッピング関係は、ジェスチャー動作と制御機能との間のマッピング関係であり、前記第2のマッピング関係は、ジェスチャー動作とスレーブ機器位置との間のマッピング関係である。
第1の位置決め直線および第2の位置決め直線を取得するステップと、
前記第1の位置決め直線と前記第2の位置決め直線との交点により、前記スレーブ機器位置を特定するステップと、
ジェスチャー動作と前記スレーブ機器位置との間の第2のマッピング関係を確立するステップと、を含み、
前記第1の位置決め直線および前記第2の位置決め直線は、ユーザがそれぞれ第1の位置と第2の位置でスレーブ機器を指差す際におけるその指の指す延長線である。
ジェスチャー動作と制御機能との間の第1のマッピング関係を確立するステップを含み、
同一のジェスチャー動作は、異なるスレーブ機器の同じ制御機能を操作制御するために用いられる。
前記第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意するステップは、
前記ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意することを含み、
前記第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップは、
前記第1のジェスチャー動作が検出されたときに、同時に、前記ユーザの他方の手からの第2のジェスチャー動作も検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定することを含む。
前記第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意するステップは、
前記ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意することを含み、
前記第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップは、
前記ユーザの一方の手からの第1のジェスチャー動作が検出されてから所定時間の後、前記ユーザの同一の手または他方の手からの第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定することを含む。
前記目標スレーブ機器との制御関係を切断し、制御関係を前記第1のジェスチャー動作の検出前に制御されたスレーブ機器に切り替え戻すステップを含む。
第1のジェスチャー動作が検出されたとき、前記第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意するための前切替モジュールと、
第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するための第1の特定モジュールと、
前記目標スレーブ機器との制御関係を確立するための第1の確立モジュールと、
第3のジェスチャー動作を取得するための第1の取得モジュールと、
前記第3のジェスチャー動作および前記第1のマッピング関係に基づいて、前記第3のジェスチャー動作に対応する操作を前記目標スレーブ機器に実行させるように制御するための制御モジュールと、を備え、
前記第1のマッピング関係は、ジェスチャー動作と制御機能との間のマッピング関係であり、前記第2のマッピング関係は、ジェスチャー動作とスレーブ機器位置との間のマッピング関係である。
第1の位置決め直線および第2の位置決め直線を取得するための第2の取得モジュールと、
前記第1の位置決め直線と前記第2の位置決め直線との交点により、前記スレーブ機器位置を特定するための第2の特定モジュールと、
ジェスチャー動作と前記スレーブ機器位置との間の第2のマッピング関係を確立するための第2の確立モジュールと、を備え、
前記第1の位置決め直線および前記第2の位置決め直線は、ユーザがそれぞれ第1の位置と第2の位置でスレーブ機器を指差す際におけるその指の指す延長線である。
同一のジェスチャー動作は、異なるスレーブ機器の同じ制御機能を操作制御するために用いられる。
前記第1の特定モジュールは、前記第1のジェスチャー動作が検出されたときに、同時に、前記ユーザの他方の手からの第2のジェスチャー動作も検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定する。
前記第1の特定モジュールは、前記ユーザの一方の手からの第1のジェスチャー動作が検出されてから所定時間長の後、前記ユーザの同一の手または他方の手からの第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定する。
前記目標スレーブ機器との制御関係を切断し、制御関係を前記第1のジェスチャー動作の検出前に制御されたスレーブ機器に切り替え戻すための切替モジュールを備える。
プロセッサと、
プロセッサの実行可能なコマンドを記憶するためのメモリとを備え、
前記プロセッサは、
第1のジェスチャー動作が検出されたとき、前記第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意し、
第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定し、
前記目標スレーブ機器との制御関係を確立し、
第3のジェスチャー動作を取得し、
前記第3のジェスチャー動作および前記第1のマッピング関係に基づいて、前記第3のジェスチャー動作に対応する操作を前記目標スレーブ機器に実行させるように制御するように配置され、
前記第1のマッピング関係は、ジェスチャー動作と制御機能との間のマッピング関係であり、前記第2のマッピング関係は、ジェスチャー動作とスレーブ機器位置との間のマッピング関係である。
第1の位置決め直線および第2の位置決め直線を取得するステップであって、第1の位置決め直線と第2の位置決め直線は、ユーザがそれぞれ第1の位置および第2の位置でスレーブ機器を指差す際におけるユーザの指の指す延長線であるステップと、
第1の位置決め直線と第2の位置決め直線との交点により、スレーブ機器位置を特定するステップと、
ジェスチャー動作とスレーブ機器位置との間の第2のマッピング関係を確立するステップとを含む。
ジェスチャー動作と制御機能との間の第1のマッピング関係を確立するステップであって、同一のジェスチャー動作は、異なるスレーブ機器の同じ制御機能を操作制御するのに用いられるステップを含む。
ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意することを含み、
第2のジェスチャー動作が検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップは、
第1のジェスチャー動作が検出されたときに、同時に、ユーザの他方の手からの第2のジェスチャー動作も検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定することを含み、
別の実施例において、第1のジェスチャー動作および第2のジェスチャー動作は、ユーザによって片手で実行され、第1のジェスチャー動作および第1のマッピング関係に基づいて制御関係の切り替えを用意するステップは、
ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意することを含み、
第2のジェスチャー動作が検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップは、
ユーザの一方の手からの第1のジェスチャー動作が検出されてから所定時間の後、ユーザの同一の手または他方の手からの第2のジェスチャー動作が検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定することを含む。
目標スレーブ機器との制御関係を切断し、制御関係を第1のジェスチャー動作の検出前に制御されたスレーブ機器に切り替え戻すステップを含む。
制御機器は、ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて制御関係の切り替えを用意し、制御機器は、ユーザの一方の手からの第1のジェスチャー動作を検出してから所定時間の後で、ユーザの同一の手または他方の手からの第2のジェスチャー動作を検出したとき、第2のジェスチャー動作および第2のマッピング関係に基づいて目標スレーブ機器を特定する。つまり、制御機器が制御関係の切り替えを用意する操作と目標スレーブ機器を特定する操作とは、前後して実行される。
当該前切替モジュール501は、第1のジェスチャー動作が検出されたとき、第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意するように配置される。ただし、第1のマッピング関係は、ジェスチャー動作と制御機能との間のマッピング関係である。
当該第2の取得モジュール506は、第1の位置決め直線および第2の位置決め直線を取得するように配置される。ただし、第1の位置決め直線と第2の位置決め直線は、ユーザがそれぞれ第1の位置と第2の位置でスレーブ機器を指差す際におけるユーザの指の指す延長線である。
当該第2の確立モジュール508は、ジェスチャー動作とスレーブ機器位置との間の第2のマッピング関係を確立するように配置される。
当該第3の確立モジュール509は、ジェスチャー動作と制御機能との間の第1のマッピング関係を取得するように配置される。ただし、同一のジェスチャー動作は、異なるスレーブ機器の同じ制御機能を操作制御する。
当該切替モジュール510は、目標スレーブ機器との制御関係を切断し、制御関係を第1のジェスチャー動作の検出前に制御されたスレーブ機器に切替戻すように配置される。
第1のジェスチャー動作が検出されたとき、第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意するステップと、
第2のジェスチャー動作が検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップと、
目標スレーブ機器との制御関係を確立するステップと、
第3のジェスチャー動作を取得するステップと、
第3のジェスチャー動作および第1のマッピング関係に基づいて、第3のジェスチャー動作に対応する操作を目標スレーブ機器に実行させるように制御するステップと、を含み、
第1のマッピング関係は、ジェスチャー動作と制御機能との間のマッピング関係であり、第2のマッピング関係は、ジェスチャー動作とスレーブ機器位置との間のマッピング関係である。
第1の位置決め直線および第2の位置決め直線を取得するステップと、
第1の位置決め直線と第2の位置決め直線との交点により、スレーブ機器位置を特定するステップと、
ジェスチャー動作とスレーブ機器位置との間の第2のマッピング関係を確立するステップと、を含み、
第1の位置決め直線および第2の位置決め直線は、ユーザがそれぞれ第1の位置と第2の位置でスレーブ機器を指差す際におけるその指の指す延長線である。
ジェスチャー動作と制御機能との間の第1のマッピング関係を確立するステップを含み、同一のジェスチャー動作は、異なるスレーブ機器の同じ制御機能を操作制御するために用いられる。
ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意することを含み、
第2のジェスチャー動作が検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップは、
第1のジェスチャー動作が検出されたときに、同時に、ユーザの他方の手からの第2のジェスチャー動作も検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定することを含む。
ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意することを含み、
第2のジェスチャー動作が検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップは、
ユーザの一方の手からの第1のジェスチャー動作が検出されてから所定時間の後で、ユーザの同一の手または他方の手からの第2のジェスチャー動作が検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定することを含む。
目標スレーブ機器との制御関係を切断し、制御関係を第1のジェスチャー動作の検出前に制御されたスレーブ機器に切り替え戻すステップを含む。
本発明は、出願番号が201510087958.3であり、出願日が2015年2月26日である中国特許出願を基に提出するものであり、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容は、参照のため本願に援用される。
第1のジェスチャー動作が検出されたとき、前記第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意するステップと、
第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器(a target controlled device)を特定するステップと、
前記目標スレーブ機器との制御関係を確立するステップと、
第3のジェスチャー動作を取得するステップと、
前記第3のジェスチャー動作および前記第1のマッピング関係に基づいて、前記第3のジェスチャー動作に対応する操作を前記目標スレーブ機器に実行させるように制御するステップと、を含み、
前記第1のマッピング関係は、ジェスチャー動作と制御機能との間のマッピング関係であり、前記第2のマッピング関係は、ジェスチャー動作とスレーブ機器位置との間のマッピング関係である。
第1の位置決め直線および第2の位置決め直線を取得するステップと、
前記第1の位置決め直線と前記第2の位置決め直線との交点により、前記スレーブ機器位置を特定するステップと、
ジェスチャー動作と前記スレーブ機器位置との間の第2のマッピング関係を確立するステップと、を含み、
前記第1の位置決め直線および前記第2の位置決め直線は、ユーザがそれぞれ第1の位置と第2の位置でスレーブ機器を指差す際におけるその指の指す延長線である。
ジェスチャー動作と制御機能との間の第1のマッピング関係を確立するステップを含み、
同一のジェスチャー動作は、異なるスレーブ機器の同じ制御機能を操作制御するために用いられる。
前記第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意するステップは、
前記ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意することを含み、
前記第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップは、
前記第1のジェスチャー動作が検出されたときに、同時に、前記ユーザの他方の手からの第2のジェスチャー動作も検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定することを含む。
前記第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意するステップは、
前記ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意することを含み、
前記第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップは、
前記ユーザの一方の手からの第1のジェスチャー動作が検出されてから所定時間の後、前記ユーザの同一の手または他方の手からの第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定することを含む。
前記目標スレーブ機器との制御関係を切断し、制御関係を前記第1のジェスチャー動作の検出前に制御されたスレーブ機器に切り替え戻すステップを含む。
第1のジェスチャー動作が検出されたとき、前記第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意するための前切替モジュールと、
第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するための第1の特定モジュールと、
前記目標スレーブ機器との制御関係を確立するための第1の確立モジュールと、
第3のジェスチャー動作を取得するための第1の取得モジュールと、
前記第3のジェスチャー動作および前記第1のマッピング関係に基づいて、前記第3のジェスチャー動作に対応する操作を前記目標スレーブ機器に実行させるように制御するための制御モジュールと、を備え、
前記第1のマッピング関係は、ジェスチャー動作と制御機能との間のマッピング関係であり、前記第2のマッピング関係は、ジェスチャー動作とスレーブ機器位置との間のマッピング関係である。
第1の位置決め直線および第2の位置決め直線を取得するための第2の取得モジュールと、
前記第1の位置決め直線と前記第2の位置決め直線との交点により、前記スレーブ機器位置を特定するための第2の特定モジュールと、
ジェスチャー動作と前記スレーブ機器位置との間の第2のマッピング関係を確立するための第2の確立モジュールと、を備え、
前記第1の位置決め直線および前記第2の位置決め直線は、ユーザがそれぞれ第1の位置と第2の位置でスレーブ機器を指差す際におけるその指の指す延長線である。
同一のジェスチャー動作は、異なるスレーブ機器の同じ制御機能を操作制御するために用いられる。
前記第1の特定モジュールは、前記第1のジェスチャー動作が検出されたときに、同時に、前記ユーザの他方の手からの第2のジェスチャー動作も検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定する。
前記第1の特定モジュールは、前記ユーザの一方の手からの第1のジェスチャー動作が検出されてから所定時間長の後、前記ユーザの同一の手または他方の手からの第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定する。
前記目標スレーブ機器との制御関係を切断し、制御関係を前記第1のジェスチャー動作の検出前に制御されたスレーブ機器に切り替え戻すための切替モジュールを備える。
プロセッサと、
プロセッサの実行可能なコマンドを記憶するためのメモリとを備え、
前記プロセッサは、
第1のジェスチャー動作が検出されたとき、前記第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意し、
第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定し、
前記目標スレーブ機器との制御関係を確立し、
第3のジェスチャー動作を取得し、
前記第3のジェスチャー動作および前記第1のマッピング関係に基づいて、前記第3のジェスチャー動作に対応する操作を前記目標スレーブ機器に実行させるように制御するように配置され、
前記第1のマッピング関係は、ジェスチャー動作と制御機能との間のマッピング関係であり、前記第2のマッピング関係は、ジェスチャー動作とスレーブ機器位置との間のマッピング関係である。
本開示の実施例の第4の態様によれば、プロセッサに実行されることにより、本開示の実施例の第1の態様に記載のスマート機器の操作制御方法を実現するプログラムを提供する。
本開示の実施例の第5の態様によれば、本開示の実施例の第4の態様に記載のプログラムが記録された記録媒体を提供する。
第1の位置決め直線および第2の位置決め直線を取得するステップであって、第1の位置決め直線と第2の位置決め直線は、ユーザがそれぞれ第1の位置および第2の位置でスレーブ機器を指差す際におけるユーザの指の指す延長線であるステップと、
第1の位置決め直線と第2の位置決め直線との交点により、スレーブ機器位置を特定するステップと、
ジェスチャー動作とスレーブ機器位置との間の第2のマッピング関係を確立するステップとを含む。
ジェスチャー動作と制御機能との間の第1のマッピング関係を確立するステップであって、同一のジェスチャー動作は、異なるスレーブ機器の同じ制御機能を操作制御するのに用いられるステップを含む。
ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意することを含み、
第2のジェスチャー動作が検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップは、
第1のジェスチャー動作が検出されたときに、同時に、ユーザの他方の手からの第2のジェスチャー動作も検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定することを含み、
別の実施例において、第1のジェスチャー動作および第2のジェスチャー動作は、ユーザによって片手で実行され、第1のジェスチャー動作および第1のマッピング関係に基づいて制御関係の切り替えを用意するステップは、
ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意することを含み、
第2のジェスチャー動作が検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップは、
ユーザの一方の手からの第1のジェスチャー動作が検出されてから所定時間の後、ユーザの同一の手または他方の手からの第2のジェスチャー動作が検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定することを含む。
目標スレーブ機器との制御関係を切断し、制御関係を第1のジェスチャー動作の検出前に制御されたスレーブ機器に切り替え戻すステップを含む。
制御機器は、ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて制御関係の切り替えを用意し、制御機器は、ユーザの一方の手からの第1のジェスチャー動作を検出してから所定時間の後で、ユーザの同一の手または他方の手からの第2のジェスチャー動作を検出したとき、第2のジェスチャー動作および第2のマッピング関係に基づいて目標スレーブ機器を特定する。つまり、制御機器が制御関係の切り替えを用意する操作と目標スレーブ機器を特定する操作とは、前後して実行される。
当該前切替モジュール501は、第1のジェスチャー動作が検出されたとき、第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意するように配置される。ただし、第1のマッピング関係は、ジェスチャー動作と制御機能との間のマッピング関係である。
当該第2の取得モジュール506は、第1の位置決め直線および第2の位置決め直線を取得するように配置される。ただし、第1の位置決め直線と第2の位置決め直線は、ユーザがそれぞれ第1の位置と第2の位置でスレーブ機器を指差す際におけるユーザの指の指す延長線である。
当該第2の確立モジュール508は、ジェスチャー動作とスレーブ機器位置との間の第2のマッピング関係を確立するように配置される。
当該第3の確立モジュール509は、ジェスチャー動作と制御機能との間の第1のマッピング関係を取得するように配置される。ただし、同一のジェスチャー動作は、異なるスレーブ機器の同じ制御機能を操作制御する。
当該切替モジュール510は、目標スレーブ機器との制御関係を切断し、制御関係を第1のジェスチャー動作の検出前に制御されたスレーブ機器に切替戻すように配置される。
第1のジェスチャー動作が検出されたとき、第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意するステップと、
第2のジェスチャー動作が検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップと、
目標スレーブ機器との制御関係を確立するステップと、
第3のジェスチャー動作を取得するステップと、
第3のジェスチャー動作および第1のマッピング関係に基づいて、第3のジェスチャー動作に対応する操作を目標スレーブ機器に実行させるように制御するステップと、を含み、
第1のマッピング関係は、ジェスチャー動作と制御機能との間のマッピング関係であり、第2のマッピング関係は、ジェスチャー動作とスレーブ機器位置との間のマッピング関係である。
第1の位置決め直線および第2の位置決め直線を取得するステップと、
第1の位置決め直線と第2の位置決め直線との交点により、スレーブ機器位置を特定するステップと、
ジェスチャー動作とスレーブ機器位置との間の第2のマッピング関係を確立するステップと、を含み、
第1の位置決め直線および第2の位置決め直線は、ユーザがそれぞれ第1の位置と第2の位置でスレーブ機器を指差す際におけるその指の指す延長線である。
ジェスチャー動作と制御機能との間の第1のマッピング関係を確立するステップを含み、同一のジェスチャー動作は、異なるスレーブ機器の同じ制御機能を操作制御するために用いられる。
ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意することを含み、
第2のジェスチャー動作が検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップは、
第1のジェスチャー動作が検出されたときに、同時に、ユーザの他方の手からの第2のジェスチャー動作も検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定することを含む。
ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意することを含み、
第2のジェスチャー動作が検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップは、
ユーザの一方の手からの第1のジェスチャー動作が検出されてから所定時間の後で、ユーザの同一の手または他方の手からの第2のジェスチャー動作が検出されたとき、第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定することを含む。
目標スレーブ機器との制御関係を切断し、制御関係を第1のジェスチャー動作の検出前に制御されたスレーブ機器に切り替え戻すステップを含む。
本発明は、出願番号が201510087958.3であり、出願日が2015年2月26日である中国特許出願を基に提出するものであり、当該中国特許出願の優先権を主張し、当該中国特許出願の全ての内容は、参照のため本願に援用される。
Claims (13)
- スマート機器の操作制御方法であって、
第1のジェスチャー動作が検出されたとき、前記第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意するステップと、
第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップと、
前記目標スレーブ機器との制御関係を確立するステップと、
第3のジェスチャー動作を取得するステップと、
前記第3のジェスチャー動作および前記第1のマッピング関係に基づいて、前記第3のジェスチャー動作に対応する操作を前記目標スレーブ機器に実行させるように制御するステップと、を含み、
前記第1のマッピング関係は、ジェスチャー動作と制御機能との間のマッピング関係であり、前記第2のマッピング関係は、ジェスチャー動作とスレーブ機器位置との間のマッピング関係であることを特徴とするスマート機器の操作制御方法。 - 前記第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップの前に、さらに、
第1の位置決め直線および第2の位置決め直線を取得するステップと、
前記第1の位置決め直線と前記第2の位置決め直線との交点により、前記スレーブ機器位置を特定するステップと、
ジェスチャー動作と前記スレーブ機器位置との間の第2のマッピング関係を確立するステップと、を含み、
前記第1の位置決め直線および前記第2の位置決め直線は、ユーザがそれぞれ第1の位置と第2の位置でスレーブ機器を指差す際におけるその指の指す延長線であることを特徴とする請求項1に記載のスマート機器の操作制御方法。 - 前記第1のジェスチャー動作が検出されたとき、前記第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意するステップの前に、さらに、
ジェスチャー動作と制御機能との間の第1のマッピング関係を確立するステップを含み、
同一のジェスチャー動作は、異なるスレーブ機器の同じ制御機能を操作制御するために用いられることを特徴とする請求項1に記載のスマート機器の操作制御方法。 - 前記第1のジェスチャー動作と前記第2のジェスチャー動作は、ユーザによって両手で実行され、
前記第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意するステップは、
前記ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意することを含み、
前記第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップは、
前記第1のジェスチャー動作が検出されたときに、同時に、前記ユーザの他方の手からの第2のジェスチャー動作も検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定することを含むことを特徴とする請求項1に記載のスマート機器の操作制御方法。 - 前記第1のジェスチャー動作と前記第2のジェスチャー動作は、ユーザによって片手で実行され、
前記第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意するステップは、
前記ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意することを含み、
前記第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するステップは、
前記ユーザの一方の手からの第1のジェスチャー動作が検出されてから所定時間の後、前記ユーザの同一の手または他方の手からの第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定することを含むことを特徴とする請求項1に記載のスマート機器の操作制御方法。 - 前記第3のジェスチャー動作に対応する操作を前記目標スレーブ機器に実行させるように制御するステップの後で、さらに、
前記目標スレーブ機器との制御関係を切断し、制御関係を前記第1のジェスチャー動作の検出前に制御されたスレーブ機器に切り替え戻すステップを含むことを特徴とする請求項1に記載のスマート機器の操作制御方法。 - スマート機器の操作制御装置であって、
第1のジェスチャー動作が検出されたとき、前記第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意するための前切替モジュールと、
第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定するための第1の特定モジュールと、
前記目標スレーブ機器との制御関係を確立するための第1の確立モジュールと、
第3のジェスチャー動作を取得するための第1の取得モジュールと、
前記第3のジェスチャー動作および前記第1のマッピング関係に基づいて、前記第3のジェスチャー動作に対応する操作を前記目標スレーブ機器に実行させるように制御するための制御モジュールと、を備え、
前記第1のマッピング関係は、ジェスチャー動作と制御機能との間のマッピング関係であり、前記第2のマッピング関係は、ジェスチャー動作とスレーブ機器位置との間のマッピング関係であることを特徴とするスマート機器の操作制御装置。 - 第1の位置決め直線および第2の位置決め直線を取得するための第2の取得モジュールと、
前記第1の位置決め直線と前記第2の位置決め直線との交点により、前記スレーブ機器位置を特定するための第2の特定モジュールと、
ジェスチャー動作と前記スレーブ機器位置との間の第2のマッピング関係を確立するための第2の確立モジュールと、をさらに備え、
前記第1の位置決め直線および前記第2の位置決め直線は、ユーザがそれぞれ第1の位置と第2の位置でスレーブ機器を指差す際におけるその指の指す延長線であることを特徴とする請求項7に記載のスマート機器の操作制御装置。 - ジェスチャー動作と制御機能との間の第1のマッピング関係を取得するための第3の確立モジュールをさらに備え、
同一のジェスチャー動作は、異なるスレーブ機器の同じ制御機能を操作制御するために用いられることを特徴とする請求項7に記載のスマート機器の操作制御装置。 - 前記前切替モジュールは、前記ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意し、
前記第1の特定モジュールは、前記第1のジェスチャー動作が検出されたときに、同時に、前記ユーザの他方の手からの第2のジェスチャー動作も検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定することを特徴とする請求項7に記載のスマート機器の操作制御装置。 - 前記前切替モジュールは、前記ユーザの一方の手からの第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意し、
前記第1の特定モジュールは、前記ユーザの一方の手からの第1のジェスチャー動作が検出されてから所定時間の後、前記ユーザの同一の手または他方の手からの第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定することを特徴とする請求項7に記載のスマート機器の操作制御装置。 - 前記目標スレーブ機器との制御関係を切断し、制御関係を前記第1のジェスチャー動作の検出前に制御されたスレーブ機器に切り替え戻すための切替モジュールをさらに備えることを特徴とする請求項7に記載のスマート機器の操作制御装置。
- 端末であって、
プロセッサと、
プロセッサの実行可能なコマンドを記憶するためのメモリとを備え、
前記プロセッサは、
第1のジェスチャー動作が検出されたとき、前記第1のジェスチャー動作および第1のマッピング関係に基づいて、制御関係の切り替えを用意し、
第2のジェスチャー動作が検出されたとき、前記第2のジェスチャー動作および第2のマッピング関係に基づいて、目標スレーブ機器を特定し、
前記目標スレーブ機器との制御関係を確立し、
第3のジェスチャー動作を取得し、
前記第3のジェスチャー動作および前記第1のマッピング関係に基づいて、前記第3のジェスチャー動作に対応する操作を前記目標スレーブ機器に実行させるように制御するように配置され、
前記第1のマッピング関係は、ジェスチャー動作と制御機能との間のマッピング関係であり、前記第2のマッピング関係は、ジェスチャー動作とスレーブ機器位置との間のマッピング関係であることを特徴とする端末。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510087958.3 | 2015-02-26 | ||
CN201510087958.3A CN104699244B (zh) | 2015-02-26 | 2015-02-26 | 智能设备的操控方法及装置 |
PCT/CN2015/088583 WO2016134591A1 (zh) | 2015-02-26 | 2015-08-31 | 智能设备的操控方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017516242A true JP2017516242A (ja) | 2017-06-15 |
JP6229096B2 JP6229096B2 (ja) | 2017-11-08 |
Family
ID=53346454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017501458A Active JP6229096B2 (ja) | 2015-02-26 | 2015-08-31 | スマート機器の操作制御方法、装置、プログラム及び記憶媒体 |
Country Status (8)
Country | Link |
---|---|
US (1) | US10007354B2 (ja) |
EP (1) | EP3062196B1 (ja) |
JP (1) | JP6229096B2 (ja) |
KR (1) | KR101736318B1 (ja) |
CN (1) | CN104699244B (ja) |
MX (1) | MX362892B (ja) |
RU (1) | RU2633367C2 (ja) |
WO (1) | WO2016134591A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104699244B (zh) * | 2015-02-26 | 2018-07-06 | 小米科技有限责任公司 | 智能设备的操控方法及装置 |
CN105204742B (zh) * | 2015-09-28 | 2019-07-09 | 小米科技有限责任公司 | 电子设备的控制方法、装置及终端 |
CN105425597B (zh) * | 2015-11-02 | 2020-03-03 | 小米科技有限责任公司 | 控制智能灯的方法、装置及系统 |
CN105491234B (zh) * | 2015-11-30 | 2019-02-01 | 深圳还是威健康科技有限公司 | 一种智能终端交互的方法及智能终端 |
WO2017201697A1 (en) | 2016-05-25 | 2017-11-30 | SZ DJI Technology Co., Ltd. | Techniques for image recognition-based aerial vehicle navigation |
CN107526500A (zh) * | 2016-06-22 | 2017-12-29 | 斑马网络技术有限公司 | 功能调节方法、装置、设备、界面系统及控制设备 |
CN107801413B (zh) * | 2016-06-28 | 2020-01-31 | 华为技术有限公司 | 对电子设备进行控制的终端及其处理方法 |
CN106406725A (zh) * | 2016-08-24 | 2017-02-15 | 深圳前海弘稼科技有限公司 | 一种基于种植箱的控制方法及装置 |
CN106355852B (zh) * | 2016-08-25 | 2020-01-07 | 北京小米移动软件有限公司 | 设备控制方法及装置 |
CN106354263A (zh) * | 2016-09-09 | 2017-01-25 | 电子科技大学 | 基于面部特征追踪的实时人机交互系统及其工作方法 |
CN106444415B (zh) * | 2016-12-08 | 2019-10-01 | 湖北大学 | 智能家居控制方法及系统 |
CN107272427B (zh) * | 2017-06-16 | 2021-01-05 | 北京小米移动软件有限公司 | 智能设备的控制方法及装置 |
CN107315355B (zh) * | 2017-06-30 | 2021-05-18 | 京东方科技集团股份有限公司 | 一种电器控制设备及方法 |
US10620721B2 (en) * | 2018-01-29 | 2020-04-14 | Google Llc | Position-based location indication and device control |
CN108717271A (zh) * | 2018-05-30 | 2018-10-30 | 辽东学院 | 人机交互控制方法、装置、系统及可读存储介质 |
US20200192485A1 (en) * | 2018-12-12 | 2020-06-18 | Lenovo (Singapore) Pte. Ltd. | Gaze-based gesture recognition |
US10701661B1 (en) | 2019-04-02 | 2020-06-30 | Google Llc | Location determination for device control and configuration |
US11082249B2 (en) | 2019-04-02 | 2021-08-03 | Google Llc | Location determination for device control and configuration |
CN110471296B (zh) * | 2019-07-19 | 2022-05-13 | 深圳绿米联创科技有限公司 | 设备控制方法、装置、系统、电子设备及存储介质 |
CN110557741B (zh) * | 2019-08-05 | 2021-08-13 | 华为技术有限公司 | 终端交互的方法及终端 |
CN111479118A (zh) * | 2019-10-09 | 2020-07-31 | 王东 | 一种电子设备的控制方法、装置及电子设备 |
CN110764616A (zh) * | 2019-10-22 | 2020-02-07 | 深圳市商汤科技有限公司 | 手势控制方法和装置 |
CN113495617A (zh) * | 2020-04-01 | 2021-10-12 | 深圳绿米联创科技有限公司 | 设备控制的方法、装置、终端设备以及存储介质 |
CN111857525A (zh) * | 2020-06-23 | 2020-10-30 | 佳格科技(浙江)股份有限公司 | 一种手势切换屏幕的方法及系统 |
JP7322824B2 (ja) * | 2020-07-01 | 2023-08-08 | トヨタ自動車株式会社 | 情報処理装置、情報処理方法、および制御システム |
US11789542B2 (en) | 2020-10-21 | 2023-10-17 | International Business Machines Corporation | Sensor agnostic gesture detection |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005047331A (ja) * | 2003-07-31 | 2005-02-24 | Nissan Motor Co Ltd | 制御装置 |
JP2005130411A (ja) * | 2003-10-27 | 2005-05-19 | Onkyo Corp | 遠隔操作システム |
JP2009037434A (ja) * | 2007-08-02 | 2009-02-19 | Tokyo Metropolitan Univ | 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム |
WO2013137412A1 (ja) * | 2012-03-15 | 2013-09-19 | オムロン株式会社 | 制御装置、電子機器、制御方法、制御プログラム、および、制御プログラムを格納したコンピュータ読取可能な記録媒体 |
JP2013205983A (ja) * | 2012-03-27 | 2013-10-07 | Sony Corp | 情報入力装置及び情報入力方法、並びにコンピューター・プログラム |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ATE528724T1 (de) * | 2002-08-30 | 2011-10-15 | Mvtec Software Gmbh | Auf hierarchischen gliedern basierte erkennung von gegenständen |
JP2006155244A (ja) * | 2004-11-29 | 2006-06-15 | Olympus Corp | 情報表示装置 |
US8199113B2 (en) * | 2006-09-13 | 2012-06-12 | Savant Systems, Llc | Programmable on screen display and remote control |
KR100977443B1 (ko) * | 2008-10-01 | 2010-08-24 | 숭실대학교산학협력단 | 제스쳐 기반의 가전기기 제어장치 및 방법 |
KR101563487B1 (ko) * | 2009-05-11 | 2015-10-27 | 엘지전자 주식회사 | 가전기기를 제어하는 휴대 단말기 |
US8693724B2 (en) * | 2009-05-29 | 2014-04-08 | Microsoft Corporation | Method and system implementing user-centric gesture control |
KR20110010906A (ko) * | 2009-07-27 | 2011-02-08 | 삼성전자주식회사 | 사용자 인터랙션을 이용한 전자기기 제어 방법 및 장치 |
CN102117117A (zh) * | 2010-01-06 | 2011-07-06 | 致伸科技股份有限公司 | 利用图像提取装置辨识使用者姿势进行控制的系统及方法 |
CN101777250B (zh) * | 2010-01-25 | 2012-01-25 | 中国科学技术大学 | 家用电器的通用遥控装置及方法 |
US8150384B2 (en) * | 2010-06-16 | 2012-04-03 | Qualcomm Incorporated | Methods and apparatuses for gesture based remote control |
US9304592B2 (en) * | 2010-11-12 | 2016-04-05 | At&T Intellectual Property I, L.P. | Electronic device control based on gestures |
WO2012099584A1 (en) * | 2011-01-19 | 2012-07-26 | Hewlett-Packard Development Company, L.P. | Method and system for multimodal and gestural control |
US9170674B2 (en) * | 2012-04-09 | 2015-10-27 | Qualcomm Incorporated | Gesture-based device control using pressure-sensitive sensors |
US9529439B2 (en) * | 2012-11-27 | 2016-12-27 | Qualcomm Incorporated | Multi device pairing and sharing via gestures |
JP6202810B2 (ja) * | 2012-12-04 | 2017-09-27 | アルパイン株式会社 | ジェスチャ認識装置および方法ならびにプログラム |
JP6030430B2 (ja) * | 2012-12-14 | 2016-11-24 | クラリオン株式会社 | 制御装置、車両及び携帯端末 |
US8886399B2 (en) * | 2013-03-15 | 2014-11-11 | Honda Motor Co., Ltd. | System and method for controlling a vehicle user interface based on gesture angle |
CN103246347A (zh) * | 2013-04-02 | 2013-08-14 | 百度在线网络技术(北京)有限公司 | 控制方法、装置和终端 |
CN104102335B (zh) * | 2013-04-15 | 2018-10-02 | 中兴通讯股份有限公司 | 一种手势控制方法、装置和系统 |
CN103793055A (zh) * | 2014-01-20 | 2014-05-14 | 华为终端有限公司 | 一种手势响应方法及终端 |
CN104866084B (zh) * | 2014-02-25 | 2021-04-30 | 中兴通讯股份有限公司 | 手势识别方法、装置和系统 |
CN103870196B (zh) * | 2014-03-06 | 2018-02-09 | 美卓软件设计(北京)有限公司 | 一种切换对象的方法及装置 |
US10782657B2 (en) * | 2014-05-27 | 2020-09-22 | Ultrahaptics IP Two Limited | Systems and methods of gestural interaction in a pervasive computing environment |
KR101556521B1 (ko) * | 2014-10-06 | 2015-10-13 | 현대자동차주식회사 | 휴먼 머신 인터페이스 장치, 그를 가지는 차량 및 그 제어 방법 |
CN104360736B (zh) * | 2014-10-30 | 2017-06-30 | 广东美的制冷设备有限公司 | 基于手势的终端控制方法和系统 |
CN104699244B (zh) * | 2015-02-26 | 2018-07-06 | 小米科技有限责任公司 | 智能设备的操控方法及装置 |
-
2015
- 2015-02-26 CN CN201510087958.3A patent/CN104699244B/zh active Active
- 2015-08-31 MX MX2016000471A patent/MX362892B/es active IP Right Grant
- 2015-08-31 WO PCT/CN2015/088583 patent/WO2016134591A1/zh active Application Filing
- 2015-08-31 RU RU2016101234A patent/RU2633367C2/ru active
- 2015-08-31 KR KR1020157030749A patent/KR101736318B1/ko active IP Right Grant
- 2015-08-31 JP JP2017501458A patent/JP6229096B2/ja active Active
- 2015-12-07 EP EP15198188.3A patent/EP3062196B1/en active Active
-
2016
- 2016-02-19 US US15/048,242 patent/US10007354B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005047331A (ja) * | 2003-07-31 | 2005-02-24 | Nissan Motor Co Ltd | 制御装置 |
JP2005130411A (ja) * | 2003-10-27 | 2005-05-19 | Onkyo Corp | 遠隔操作システム |
JP2009037434A (ja) * | 2007-08-02 | 2009-02-19 | Tokyo Metropolitan Univ | 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム |
WO2013137412A1 (ja) * | 2012-03-15 | 2013-09-19 | オムロン株式会社 | 制御装置、電子機器、制御方法、制御プログラム、および、制御プログラムを格納したコンピュータ読取可能な記録媒体 |
JP2013205983A (ja) * | 2012-03-27 | 2013-10-07 | Sony Corp | 情報入力装置及び情報入力方法、並びにコンピューター・プログラム |
Also Published As
Publication number | Publication date |
---|---|
RU2016101234A (ru) | 2017-07-20 |
KR20160113544A (ko) | 2016-09-30 |
EP3062196A1 (en) | 2016-08-31 |
CN104699244A (zh) | 2015-06-10 |
EP3062196B1 (en) | 2018-02-07 |
MX2016000471A (es) | 2016-10-26 |
RU2633367C2 (ru) | 2017-10-12 |
US10007354B2 (en) | 2018-06-26 |
MX362892B (es) | 2019-02-22 |
CN104699244B (zh) | 2018-07-06 |
US20160252967A1 (en) | 2016-09-01 |
KR101736318B1 (ko) | 2017-05-16 |
WO2016134591A1 (zh) | 2016-09-01 |
JP6229096B2 (ja) | 2017-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6229096B2 (ja) | スマート機器の操作制御方法、装置、プログラム及び記憶媒体 | |
US10453331B2 (en) | Device control method and apparatus | |
JP6488375B2 (ja) | デバイス制御方法及び装置 | |
EP3026875B1 (en) | Method and apparatus for adjusting operational status of smart home device | |
WO2017008398A1 (zh) | 智能设备控制方法和装置 | |
WO2017071093A1 (zh) | 电子设备控制方法及装置 | |
WO2017024711A1 (zh) | 智能家居设备的控制方法、装置、系统及设备 | |
JP2017513418A (ja) | リモートコントロール方法、装置、プログラム及び記録媒体 | |
JP6556832B2 (ja) | 無線アクセスポイントの制御方法、装置、プログラムおよび記録媒体 | |
CN108476339B (zh) | 一种遥控方法和终端 | |
CN103916691A (zh) | 一种电视控制方法和移动终端 | |
CN104618783A (zh) | 遥控方法及装置 | |
CN104111720A (zh) | 电子设备控制方法、装置及电子设备 | |
WO2017008394A1 (zh) | 一种下载控制程序的方法及装置 | |
CN111123716B (zh) | 远程控制方法、远程控制装置及计算机可读存储介质 | |
EP2899986B1 (en) | Display apparatus, mobile apparatus, system and setting controlling method for connection thereof | |
CN106292316B (zh) | 工作模式切换方法和装置 | |
RU2673464C1 (ru) | Способ распознавания и управления бытовой техникой мобильным телефоном и мобильный телефон для его реализации | |
US20220300096A1 (en) | Method for controlling internet of things device, and terminal device | |
CN114296587A (zh) | 光标控制方法、装置、电子设备和存储介质 | |
CN106773753B (zh) | 设备控制方法和装置 | |
US20240056921A1 (en) | Connection method and apparatus for wireless smart wearable device and storage medium | |
CN116052403A (zh) | 家电控制方法、装置、电子设备、存储介质及芯片 | |
CN105592337A (zh) | 显示方法、装置、发送设备及控制设备 | |
TW201521446A (zh) | 具有電視遙控功能的移動裝置及其遙控方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171016 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6229096 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |