JP2017521793A - ユーザ入力に基づいて制御システムのためのジェスチャ区域定義データを取得する方法 - Google Patents
ユーザ入力に基づいて制御システムのためのジェスチャ区域定義データを取得する方法 Download PDFInfo
- Publication number
- JP2017521793A JP2017521793A JP2017502225A JP2017502225A JP2017521793A JP 2017521793 A JP2017521793 A JP 2017521793A JP 2017502225 A JP2017502225 A JP 2017502225A JP 2017502225 A JP2017502225 A JP 2017502225A JP 2017521793 A JP2017521793 A JP 2017521793A
- Authority
- JP
- Japan
- Prior art keywords
- mobile communication
- communication device
- gesture area
- data
- control system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 238000010295 mobile communication Methods 0.000 claims abstract description 125
- 230000004044 response Effects 0.000 claims abstract description 8
- 230000000007 visual effect Effects 0.000 claims description 12
- 238000004891 communication Methods 0.000 claims description 6
- 230000003190 augmentative effect Effects 0.000 claims description 5
- 230000033001 locomotion Effects 0.000 claims description 5
- 238000012986 modification Methods 0.000 claims description 5
- 230000004048 modification Effects 0.000 claims description 5
- 230000005236 sound signal Effects 0.000 claims description 2
- 238000004590 computer program Methods 0.000 abstract description 3
- 238000012544 monitoring process Methods 0.000 description 8
- 210000003811 finger Anatomy 0.000 description 7
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 238000010079 rubber tapping Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 238000010438 heat treatment Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 208000036829 Device dislocation Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C17/00—Arrangements for transmitting signals characterised by the use of a wireless electrical link
- G08C17/02—Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L12/2816—Controlling appliance services of a home automation network by calling their functionalities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72412—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C2201/00—Transmission systems of control signals via wireless link
- G08C2201/30—User interface
- G08C2201/32—Remote control based on movements, attitude of remote control device
Abstract
Description
Claims (15)
- 制御システムのためのジェスチャ区域定義データを、前記制御システムの外部のモバイル通信装置を介して得られるユーザ入力に基づいて取得する方法であって、
センサ装置によりセンサ信号を受けると共に、コントローラにより該センサ信号から前記モバイル通信装置の位置データを決定するステップと、
前記位置データの決定に応答して、前記モバイル通信装置を介して前記位置データに関するフィードバック情報を提供するフィードバック信号を供給するステップと、
前記モバイル通信装置の入力ユニットを介して、命令コマンドを示す入力信号を受けるステップと、
前記コントローラにより、前記命令コマンドに基づいて前記ジェスチャ区域定義データを決定するステップと、
を有する、方法。 - 前記センサ装置が前記制御システムに含まれ、当該方法は、前記制御システムが前記位置データの決定に応答して前記モバイル通信装置に該位置データを送信するステップを更に有し、及び/又は
前記センサ装置が前記モバイル通信装置に含まれ、当該方法は、前記モバイル通信装置が前記位置データを前記制御システムに送信するステップを更に有する、
請求項1に記載の方法。 - 前記センサ装置は、画像を入力すると共に該画像から前記位置データを決定する画像キャプチャ装置、超音波トランスジューサ、無線周波数(RF)送受信器及び通信信号強度を決定する通信モジュールを含む群から選択される少なくとも1つの要素である、請求項1又は請求項2に記載の方法。
- 前記センサ装置は前記モバイル通信装置に含まれる画像キャプチャ装置であり、前記コントローラが前記モバイル通信装置の位置データを、入力された画像に基づいて空間のモデルデータを確定すると共に該モデルデータに基づいて前記画像キャプチャ装置の視点の位置を決定することにより決定する、請求項1ないし3の何れか一項に記載の方法。
- 前記モバイル通信装置により表示又は修正するために前記モバイル通信装置が前記制御システムから既存のジェスチャ区域の既存のジェスチャ区域定義データを受信するステップを更に有する、請求項1ないし4の何れか一項に記載の方法。
- 前記ジェスチャ区域定義データを決定するステップが、前記既存のジェスチャ区域を修正するための修正されたジェスチャ区域定義データを決定するステップを含む、請求項5に記載の方法。
- 前記フィードバック信号を供給するステップが、
前記モバイル通信装置の表示スクリーン上に、前記位置データ及び該位置データに基づく位置指示子を含む空間の視覚的表現のうちの少なくとも一方を表示するステップ、
前記モバイル通信装置の表示スクリーン上に、前記位置データ及び/又は前記コントローラにより決定された若しくは前記制御システムから受信された前記ジェスチャ区域定義データに基づいて、ジェスチャ区域の視覚的表現、ジェスチャ区域の特性及び拡張現実表現等の空間の画像に埋め込まれたジェスチャ区域の視覚的表現のうちの少なくとも1つを表示するステップ、
前記コントローラにより決定された又は前記制御システムから受信された前記ジェスチャ区域定義データに基づいて、前記位置データに対応する位置におけるジェスチャ区域の有無、ジェスチャ区域の大きさ、ジェスチャ区域の境界の位置、及びジェスチャ区域が前記位置データに対応する位置に対して位置され得る方向のうちの少なくとも1つを示す音声信号を供給するステップ、
前記コントローラにより決定された又は前記制御システムから受信された前記ジェスチャ区域定義データに基づいて、前記位置データに対応する位置における既存のジェスチャ区域の有無、ジェスチャ区域の大きさ、又はジェスチャ区域の境界の位置を示す触覚信号を供給するステップ、
を含む群から選択される少なくとも1つのステップを含む、請求項1ないし6の何れか一項に記載の方法。 - 前記モバイル通信装置は接触感知表示スクリーンを有し、前記フィードバック信号を供給するステップは前記表示スクリーン上にジェスチャ区域の視覚的表現を表示するステップを含み、前記入力信号を受けるステップは前記表示スクリーン上の前記視覚的表現を接触ジェスチャにより操作すると共に該操作に対応する操作命令コマンドを発生するステップを有する、請求項1ないし7の何れか一項に記載の方法。
- 前記入力ユニットが、前記入力信号を受けるステップが前記モバイル通信装置の動きデータを入力するステップを有する場合の加速度計又はジャイロスコープ、前記入力信号を受けるためのキーボード又は釦、及び前記入力信号が音響又は音声コマンドを有する場合の音声センサを有する群から選択される少なくとも1つの要素を有する、請求項1ないし8の何れか一項に記載の方法。
- 前記位置データを決定するステップは空間内の軌跡に沿う前記モバイル通信装置の動きを表す位置シーケンスデータを決定するステップを有し、前記ジェスチャ区域定義データを決定するステップが前記位置シーケンスデータに基づいてジェスチャ区域の寸法又は形状を決定するステップを有する、請求項1ないし9の何れか一項に記載の方法。
- 前記入力信号を受けるステップが、前記モバイル通信装置に含まれる加速度計又はジャイロスコープから入力信号を受けると共に、前記位置シーケンスデータを決定するために前記空間の画像に加えて又は代えて該入力信号を使用するステップを含む、請求項10に記載の方法。
- 当該方法は制御システムのためのジェスチャ区域定義データを取得するためにモバイル通信装置内で実施され、
前記センサ信号を受けると共に該センサ信号から前記モバイル通信装置の位置データを決定するステップは、センサ装置を用いて得られるセンサ信号を前記モバイル通信装置により受けると共に前記モバイル通信装置の位置データをコントローラにより該センサ信号から決定するステップを有し、
前記位置データの決定に応答してフィードバック信号を供給するステップは、前記位置データの決定に応答して、前記位置データに関するフィードバック情報を提供するフィードバック信号を前記モバイル通信装置の出力ユーザを介して供給するステップを有し、
前記命令コマンドを示す入力信号を受けるステップは、命令コマンドを示す入力信号を前記モバイル通信装置の入力ユニットを介して受けるステップを有し、
前記ジェスチャ区域定義データを決定するステップは、前記コントローラにより前記ジェスチャ区域定義データを前記命令コマンドに基づいて決定するステップを有する、
請求項1に記載の方法。 - 前記センサ装置からセンサ信号を受けるステップが、画像キャプチャ装置を用いて得られる空間の画像を前記モバイル通信装置により受けるステップを有し、前記位置データが該画像から決定される、請求項12に記載の方法。
- モバイル通信装置にロードされた場合に、該モバイル通信装置に請求項12に記載の方法又は請求項1ないし11の何れか一項に記載の方法を実行することを可能にさせる命令を有する、コンピュータプログラム。
- 環境内の1以上の実用装置を制御するための制御システムであって、空間から画像を得る画像キャプチャ装置及び前記空間におけるモバイル通信装置の位置データを前記画像から決定するコントローラを有し、更に、前記モバイル通信装置とデータを交換し、該モバイル通信装置に前記位置データを供給し、該モバイル通信装置からジェスチャ区域定義データを受信する送受信器手段を有する、制御システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14177477.8 | 2014-07-17 | ||
EP14177477 | 2014-07-17 | ||
PCT/EP2015/066352 WO2016009016A1 (en) | 2014-07-17 | 2015-07-16 | Method of obtaining gesture zone definition data for a control system based on user input |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017521793A true JP2017521793A (ja) | 2017-08-03 |
JP6242535B2 JP6242535B2 (ja) | 2017-12-06 |
Family
ID=51220405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017502225A Active JP6242535B2 (ja) | 2014-07-17 | 2015-07-16 | ユーザ入力に基づいて制御システムのためのジェスチャ区域定義データを取得する方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11163367B2 (ja) |
EP (1) | EP3170162B1 (ja) |
JP (1) | JP6242535B2 (ja) |
CN (1) | CN106663365B (ja) |
WO (1) | WO2016009016A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3037917B1 (en) * | 2014-12-24 | 2021-05-19 | Nokia Technologies Oy | Monitoring |
US10057078B2 (en) * | 2015-08-21 | 2018-08-21 | Samsung Electronics Company, Ltd. | User-configurable interactive region monitoring |
WO2018023042A1 (en) * | 2016-07-29 | 2018-02-01 | Pcms Holdings, Inc. | Method and system for creating invisible real-world links to computer-aided tasks with camera |
JP6653489B2 (ja) * | 2016-12-16 | 2020-02-26 | パナソニックIpマネジメント株式会社 | 入力装置、及び、入力方法 |
CN110326259B (zh) | 2017-03-02 | 2022-05-17 | 昕诺飞控股有限公司 | 联网家居设备的系统中的控制事件 |
CN107928591A (zh) * | 2017-11-24 | 2018-04-20 | 佛山市顺德区美的洗涤电器制造有限公司 | 水槽洗碗机及其手势控制方法 |
US11164341B2 (en) * | 2019-08-29 | 2021-11-02 | International Business Machines Corporation | Identifying objects of interest in augmented reality |
BE1030060B1 (de) * | 2021-12-21 | 2023-07-17 | Miele & Cie | Bedienvorrichtung und Verfahren zum Bedienen eines Reinigungsgeräts und Reinigungsgerät |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090027337A1 (en) * | 2007-07-27 | 2009-01-29 | Gesturetek, Inc. | Enhanced camera-based input |
US20090183125A1 (en) * | 2008-01-14 | 2009-07-16 | Prime Sense Ltd. | Three-dimensional user interface |
JP2011186892A (ja) * | 2010-03-10 | 2011-09-22 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
US20110296353A1 (en) * | 2009-05-29 | 2011-12-01 | Canesta, Inc. | Method and system implementing user-centric gesture control |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002334097A (ja) * | 2001-02-09 | 2002-11-22 | Seiko Epson Corp | サービス提供システム、管理端末、移動体、サービス提供プログラム及びサービス提供方法 |
US8416217B1 (en) | 2002-11-04 | 2013-04-09 | Neonode Inc. | Light-based finger gesture user interface |
US9229540B2 (en) * | 2004-01-30 | 2016-01-05 | Electronic Scripting Products, Inc. | Deriving input from six degrees of freedom interfaces |
DE102004011569A1 (de) * | 2004-03-10 | 2005-10-06 | Torsten Masteit | Vorrichtung und Verfahren zur drahtlosen Steuerung eines Personal-Computers |
US8375336B2 (en) * | 2008-05-23 | 2013-02-12 | Microsoft Corporation | Panning content utilizing a drag operation |
EP3130983B1 (en) | 2008-07-15 | 2018-11-14 | Immersion Corporation | Systems and methods for shifting haptic feedback function between passive and active modes |
JP5271121B2 (ja) * | 2009-03-09 | 2013-08-21 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 |
US8766928B2 (en) * | 2009-09-25 | 2014-07-01 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
RU2562805C2 (ru) | 2009-12-15 | 2015-09-10 | Конинклейке Филипс Электроникс Н.В. | Система и способ для физической ассоциации сцен освещения |
US8659658B2 (en) * | 2010-02-09 | 2014-02-25 | Microsoft Corporation | Physical interaction zone for gesture-based user interfaces |
US8494566B2 (en) * | 2010-06-01 | 2013-07-23 | Microsoft Corporation | Hybrid mobile phone geopositioning |
US8150384B2 (en) * | 2010-06-16 | 2012-04-03 | Qualcomm Incorporated | Methods and apparatuses for gesture based remote control |
US9454260B2 (en) * | 2010-08-04 | 2016-09-27 | Hewlett-Packard Development Company, L.P. | System and method for enabling multi-display input |
US9477302B2 (en) * | 2012-08-10 | 2016-10-25 | Google Inc. | System and method for programing devices within world space volumes |
EP2442600B1 (en) * | 2010-10-14 | 2013-03-06 | Research In Motion Limited | Near-field communication (NFC) system providing nfc tag geographic position authentication and related methods |
EP2628363B1 (en) | 2010-10-15 | 2021-05-05 | Signify Holding B.V. | A method, a user interaction system and a portable electronic devicefor controlling a lighting system |
EP2759057A2 (en) * | 2011-09-22 | 2014-07-30 | Earsoft Limited | Dynamic range control |
JP5331269B1 (ja) * | 2012-02-28 | 2013-10-30 | パナソニック株式会社 | 通信システム、通信装置及び通信方法 |
DE102012207170A1 (de) | 2012-04-30 | 2013-10-31 | Zumtobel Lighting Gmbh | Multifunktionale Sensoreinheit und Verfahren zur Justierung der Einheit |
US9292085B2 (en) * | 2012-06-29 | 2016-03-22 | Microsoft Technology Licensing, Llc | Configuring an interaction zone within an augmented reality environment |
US9274608B2 (en) * | 2012-12-13 | 2016-03-01 | Eyesight Mobile Technologies Ltd. | Systems and methods for triggering actions based on touch-free gesture detection |
US9934611B2 (en) * | 2013-09-11 | 2018-04-03 | Qualcomm Incorporated | Structural modeling using depth sensors |
US9891712B2 (en) * | 2013-12-16 | 2018-02-13 | Leap Motion, Inc. | User-defined virtual interaction space and manipulation of virtual cameras with vectors |
CN103744511B (zh) * | 2014-01-10 | 2017-01-04 | 西安电子科技大学宁波信息技术研究院 | 一种交互式皮影表演系统及操作控制方法 |
US9690370B2 (en) * | 2014-05-05 | 2017-06-27 | Immersion Corporation | Systems and methods for viewport-based augmented reality haptic effects |
-
2015
- 2015-07-16 CN CN201580038747.9A patent/CN106663365B/zh active Active
- 2015-07-16 WO PCT/EP2015/066352 patent/WO2016009016A1/en active Application Filing
- 2015-07-16 EP EP15738651.7A patent/EP3170162B1/en active Active
- 2015-07-16 US US15/326,851 patent/US11163367B2/en active Active
- 2015-07-16 JP JP2017502225A patent/JP6242535B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090027337A1 (en) * | 2007-07-27 | 2009-01-29 | Gesturetek, Inc. | Enhanced camera-based input |
US20090183125A1 (en) * | 2008-01-14 | 2009-07-16 | Prime Sense Ltd. | Three-dimensional user interface |
US20110296353A1 (en) * | 2009-05-29 | 2011-12-01 | Canesta, Inc. | Method and system implementing user-centric gesture control |
JP2011186892A (ja) * | 2010-03-10 | 2011-09-22 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3170162B1 (en) | 2018-12-12 |
US20170205891A1 (en) | 2017-07-20 |
CN106663365B (zh) | 2019-12-10 |
EP3170162A1 (en) | 2017-05-24 |
WO2016009016A1 (en) | 2016-01-21 |
JP6242535B2 (ja) | 2017-12-06 |
CN106663365A (zh) | 2017-05-10 |
US11163367B2 (en) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6242535B2 (ja) | ユーザ入力に基づいて制御システムのためのジェスチャ区域定義データを取得する方法 | |
KR102071575B1 (ko) | 이동로봇, 사용자단말장치 및 그들의 제어방법 | |
KR101224351B1 (ko) | 제어될 디바이스에 연관된 객체를 찾아내는 방법 및 상기 디바이스를 제어하는 방법 | |
CA2959707C (en) | Home automation control using context sensitive menus | |
CN107852566B (zh) | 基于背景的手势识别和控制 | |
US10642372B2 (en) | Apparatus and method for remote control using camera-based virtual touch | |
CN105573628B (zh) | 用户终端设备及其控制方法和用于提供内容的系统 | |
EP3182747B1 (en) | Method and device for controlling a device | |
US20170099720A1 (en) | Method for controlling mobile terminal and program for controlling mobile terminal | |
US9760174B1 (en) | Haptic feedback as accessibility mode in home automation systems | |
JP5787238B2 (ja) | 制御装置及び操作制御方法並びに操作制御プログラム | |
US20150288764A1 (en) | Method and apparatus for controlling smart terminal | |
EP3847632B1 (en) | System and method for smart remote scene creation | |
US10511702B2 (en) | Information processing device and information processing method | |
KR20210142190A (ko) | 대화형 주방 디스플레이 | |
CN112041803A (zh) | 电子设备及其操作方法 | |
KR102333931B1 (ko) | 영상 투사 장치 및 그의 동작 방법 | |
KR20090076124A (ko) | 가전 기기 제어 방법 및 이를 이용한 장치 | |
JP6049494B2 (ja) | 携帯端末 | |
KR101760841B1 (ko) | 인지 가능한 출력의 공간 분포를 실현하기 위한 제어 시스템의 설정들을 제공하는 장치 및 방법 | |
WO2017043141A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN111033606A (zh) | 信息处理装置、信息处理方法和程序 | |
CN114384848A (zh) | 交互方法、装置、电子设备及存储介质 | |
KR102587618B1 (ko) | 서비스 특화 입출력 방법 및 장치 | |
KR101685108B1 (ko) | 홈 기기를 제어하는 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170113 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170113 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170915 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171107 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6242535 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |