JP2017521793A - ユーザ入力に基づいて制御システムのためのジェスチャ区域定義データを取得する方法 - Google Patents

ユーザ入力に基づいて制御システムのためのジェスチャ区域定義データを取得する方法 Download PDF

Info

Publication number
JP2017521793A
JP2017521793A JP2017502225A JP2017502225A JP2017521793A JP 2017521793 A JP2017521793 A JP 2017521793A JP 2017502225 A JP2017502225 A JP 2017502225A JP 2017502225 A JP2017502225 A JP 2017502225A JP 2017521793 A JP2017521793 A JP 2017521793A
Authority
JP
Japan
Prior art keywords
mobile communication
communication device
gesture area
data
control system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017502225A
Other languages
English (en)
Other versions
JP6242535B2 (ja
Inventor
ジョナサン デービッド メイソン
ジョナサン デービッド メイソン
ズミトリー ヴィクトロビッチ アレクセイユ
ズミトリー ヴィクトロビッチ アレクセイユ
サナエ シュライビ
サナエ シュライビ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Signify Holding BV
Original Assignee
Signify Holding BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Signify Holding BV filed Critical Signify Holding BV
Publication of JP2017521793A publication Critical patent/JP2017521793A/ja
Application granted granted Critical
Publication of JP6242535B2 publication Critical patent/JP6242535B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2816Controlling appliance services of a home automation network by calling their functionalities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/32Remote control based on movements, attitude of remote control device

Abstract

本発明は、制御システムのためのジェスチャ区域定義データを、該制御システムの外部のモバイル通信装置を介して得られるユーザ入力に基づいて取得する方法に関するもので、該方法は、画像キャプチャ装置により空間の画像を入力すると共に、コントローラにより該画像から上記モバイル通信装置の位置データを決定するステップと;該位置データの決定に応答して、該位置データに関するフィードバック情報をもたらすフィードバック信号を、上記モバイル通信装置を介して供給するステップと;該モバイル通信装置の入力ユニットを介して命令コマンドを示す入力信号を受信すると共に、前記コントローラにより該命令コマンドに基づいてジェスチャ区域定義データを決定するステップと;を有する。本発明は、更に、モバイル通信装置を動作させる方法、コンピュータプログラム製品及び制御システムに関するものでもある。

Description

本発明は、ユーザ入力に基づいて制御システムのためのジェスチャ区域定義データを取得する方法に関する。本発明は、更に、モバイル通信装置を動作させる方法、コンピュータプログラム製品及び制御システムにも関する。
本文書は、住宅、ビル又は同様の領域等の環境において実用装置を制御するための制御システムに関するものである。種々のタイプの斯様な制御システムが利用可能であるが、幾つかの制御システムは活動、光レベル等の特定の条件を検出するために部屋、廊下又は他の領域等の空間を監視することに基づくものである。例えば、特定のタイプの制御システムは、実用装置を制御する(例えば、電灯をオンする、テレビを動作させる又はカーテンを閉じる等)ことを意図する特定のジェスチャも認識する。このようなシステムは、上記のようなジェスチャ又は他の検出可能なフィーチャ若しくは条件が検出され得る空間内の特定の領域を監視することに基づくものであり得る。これらの領域は、以下では、“ジェスチャ区域”と称する。本発明は、制御システムによる斯様なジェスチャ区域の権限委託(就役)に関するものである。
米国特許出願公開第2011/296353号には、装置を遠隔的に制御するためのユーザ中心対話区域が記載されている。米国特許出願公開第2009/027337号には、装置を遠隔的に制御するためのジェスチャを検出する検出領域が記載されており、該検出領域はジェスチャを行う際のユーザの身体の能力及び制限(例えば、腕の長さ)に基づいている。
本発明の目的は、ユーザ友好的であり、ユーザにとり直感的であり、且つ、種々のフィーチャの高レベルの制御を可能にする、ジェスチャ区域データを取得する方法を提供することである。
上記目的のため、本発明によれば制御システムのためのジェスチャ区域定義データを、前記制御システムの外部のモバイル通信装置を介して得られるユーザ入力に基づいて取得する方法が提供され、該方法は、センサ装置によりセンサ信号を受けると共に、コントローラにより該センサ信号から前記モバイル通信装置の位置データを決定するステップと、前記位置データの決定に応答して、前記位置データに関するフィードバック情報を提供するフィードバック信号を、前記モバイル通信装置を介して供給するステップと、前記モバイル通信装置の入力ユニットを介して、命令コマンドを示す入力信号を受けるステップと、前記コントローラにより、前記命令コマンドに基づいて前記ジェスチャ区域定義データを決定するステップと、を有する。
本発明の該方法において、前記制御システムはモバイル通信装置と協動してジェスチャ区域定義データの発生、権限委託(就役)及び/又は修正を可能にする。ジェスチャ区域定義データとは、当該制御システムにより監視されるべきジェスチャ区域の特性を定義するデータである。これらの特性は、例えば、大きさ(寸法)、形状、何らかの境界、当該区域が意図される実用装置、又は制御されるべき機能であり得る。しかしながら、これらは単なる例示的な特性に過ぎず、当業者であれば、本発明の方法を用いて定義又は修正することができるジェスチャ区域の他の特性を認識することができるであろう。
前記モバイル通信装置は、スマートフォン、パーソナル・デジタル・アシスタント(PDA)、タブレット型コンピュータ、スマートウォッチ又はブレスレット等の如何なる好適な通信装置とすることもできる。このような装置は、他の装置とのデータ通信を、例えば、Wi-Fi(登録商標)、ブルートゥース(登録商標)、又はモバイル通信用全世界システム(GSM(登録商標))、汎用パケット無線サービス(GPRS)、長期進化型(LTE)、若しくは斯様なネットワークの他の進化型若しくは代替型(短期又は長期)の無線データ通信を介して可能にするものである。更に、当該モバイル通信装置は、フィードバック及びユーザ入力を用いて対話を可能にする理想的なユーザインターフェースを提供する。このような装置の多くは、例えば、高解像度表示スクリーン、時には接触感知スクリーン(タッチスクリーン)、画像及び/又は音声キャプチャ機能、キーボード、及び加速度計等を有している。このようなユーザインターフェースは、ユーザに対して既存の又は定義されるべきジェスチャ区域に関するフィードバックを提供すると共に、ユーザが当該モバイル通信装置上の入力装置により、定義されるべき又は修正されるべきジェスチャ区域の仕様及びパラメータを検証及び/又は修正することを可能にするために都合良く利用することができる。多くの人は日常的にモバイル通信装置を携帯するので、このような装置は日常的に使用される制御システムを制御するために有利に用いることができる。
前記位置データは、センサ装置から入力されるセンサ信号に基づいて決定される。良好に機能する実施態様は、空間の画像を入力すると共に該入力された画像から位置データを決定するために画像キャプチャ装置を用いる。このような画像キャプチャ装置は、前記制御システム又は前記モバイル通信装置の何れかに含めることができる。代わりに又は加えて、位置データを決定するために、ジグビ信号強度測定等の他のセンサ信号も使用することができ、又は超音波信号を三角測量する際の超音波送受信器、若しくはソース信号送信に応答して受信されるエコー信号に基づいて撮像を可能にする他のエコータイプのセンサの使用も可能である。しかしながら、画像キャプチャ装置は多くの場合にモバイル通信装置において既に利用可能であると共に、制御システムにおいて容易に実施化することができるので、画像キャプチャ装置の利用が好ましい実施態様である。
前記命令コマンドに基づいて前記ジェスチャ区域定義データを決定するコントローラは、前記制御システムに含まれるコントローラとすることができるか、又は前記モバイル通信装置に配置することができる。本発明がどの様に実施化されるか、及び該コントローラが、この点に関して、何処に配置されるかに依存して、データは制御システムとモバイル通信装置との間で交換されねばならない。例えば、モバイル通信装置は前記ユーザインターフェースをユーザが定義されるべきジェスチャ区域に関する情報を得ることができるようにするためにのみ設けることができる一方、制御システム自体は該モバイル通信装置の位置を該制御システムに含まれる画像キャプチャ装置から入力される画像に基づいて決定する。この場合、制御システムは当該位置データをモバイル通信装置に送信して、該モバイル通信装置がフィードバック信号を供給すること、例えば作成されるべきジェスチャ区域が何処に配置されるかを定義するために使用されるべき位置データの視覚化、を可能にすることができる。また、モバイル通信装置は、前記入力ユニット(例えば、接触感知スクリーン、キーボード等)を介して入力信号を取得した後に、制御システムに対して命令コマンドに関するデータを返送することもできる。ジェスチャ区域定義データを決定又は発生する前記コントローラがモバイル通信装置(モバイル通信システム)に含まれる別の構成例において、少なくとも該ジェスチャ区域定義データは、発生後に、制御システムが該定義データを記憶及び使用することができるようにする等のために該制御システムに送信することができる。
前述したように、ジェスチャ区域は、前記制御システムにより制御されるべき特定の実用装置又は一群の装置に関連付けることができる。更に、ジェスチャ区域を、実行されるべき装置の典型的な機能又は機能の組み合わせに関連付けることも可能である。実用装置がジェスチャ区域に関連付けられる場合、このジェスチャ区域は、例えば、専ら電灯を、もっと一般的には当該空間の照明条件を制御するために権限委託されるようにすることができる一方、他のジェスチャ区域はオーディオシステムの制御に関連付けることができる。しかしながら、このことはオプションである。即ち、例えば制御システムが特定の制御動作を実行するためになされる異なる種類のジェスチャの間を区別する場合、ジェスチャ区域は該制御システムを操作するためのジェスチャを広く識別するために権限委託されるものとすることもできる。同様に、ジェスチャ区域には、特定の実用装置の機能(例えば、テレビジョンの音量を制御する、ランプをオン又はオフする、又はベネチアン・ブラインド若しくは他の日除けの羽根を回転する等)又は機能の組み合わせ(例えば、電灯を心地よいレベルにまで調光する間にオーディオシステムをオンすると共に、肘掛け椅子の近くの読書灯をオンする)等の特定の機能を関連付けることもできる。
一実施態様によれば、当該空間の画像を入力する前記画像キャプチャ装置は前記制御システムに含まれるものとすることができ、当該方法は、該制御システムが前記位置データの決定に応答して前記モバイル通信装置に該位置データを送信するステップを更に有する。この場合、定義されたジェスチャ区域を監視するために当該空間を監視する上記画像キャプチャ装置は、上記モバイル通信装置の位置を識別するために使用することができる。例えば、認識アルゴリズムを適用することにより、制御システムはモバイル通信装置を認識することができる。このような画像キャプチャ装置は当該空間を2Dで監視するために二次元画像を入力することができるものとすることができるが、好ましい実施態様は空間の三次元画像をキャプチャすることができる画像キャプチャ装置を適用し、これにより、キャプチャされた画像から当該位置データを即座に決定することができるようにする。
本発明の他の実施態様において、上記画像キャプチャ装置は前記モバイル通信装置に含まれ、前記コントローラは該モバイル通信装置の位置データを、入力された画像に基づいて空間のモデル(モジュール)データを確定すると共に、当該位置データを供給するために該モジュールデータに基づいて前記画像キャプチャ装置の視点の位置を決定することにより決定する。多くのモバイル通信装置は、今日、周囲の空間の画像をキャプチャするために使用することができるオンボードカメラを有している。空間の画像を異なる位置から撮影することにより、又は画像キャプチャ装置を動作させながら当該モバイル通信装置を単に移動させることにより、該装置により当該空間の三次元モデルを作成することができる。入力された画像に基づく当該空間の三次元モデルデータは、窓、物体又は扉等の該空間の他の特徴部分に対して当該カメラ(及び、付属するモバイル通信装置)の位置が何処にあるかを決定するために使用することができる。理解されるように、当該モバイル通信装置自体が空間に対する位置データを確定することができる場合、本発明のステップの殆どを該モバイル通信装置上で実行し、ジェスチャ区域を定義した後に、その結果、即ちジェスチャ区域定義データを前記制御システムに通知することができる。理解されるように、例えば、画像から位置データを決定するステップがモバイル通信装置自体により実行される一方、ジェスチャ区域定義データを前記命令コマンドに基づいて決定するステップが前記制御システムに含まれるコントローラにより実行され得る、又はその逆のような、ハイブリッド形態の通信も可能である。
他の実施態様によれば、本方法は、前記モバイル通信装置が前記制御システムから既存のジェスチャ区域の既存のジェスチャ区域定義データを受信するステップを更に有することができる。例えば、前記モバイル通信装置は、既存のジェスチャ区域を修正するために使用することができ、制御システムにより現在使用されている1以上の既存のジェスチャ区域に関する定義データを先ず受信することができる。また、斯様なデータを修正することなく、該モバイル通信装置は既存のジェスチャ区域定義データを受信し、既存のジェスチャ区域の存在を拡張現実背景で視覚化するか、又は、さもなければ、関心空間内の既存のジェスチャ区域に関するフィードバックを提供することができる。更に他の実施態様によれば、前記ジェスチャ区域定義データを決定するステップは、既存のジェスチャ区域を修正するための修正されたジェスチャ区域定義データを決定するステップを含む。特に、これらの後者の実施態様の種々の構成例においては、ユーザが例えば関心空間内を動き回り、当該制御システムにより使用されるジェスチャ区域の有無を通知され得るようにすることが有利である。拡張現実環境において、ユーザは例えば単に当該モバイル通信装置の表示スクリーンを調べればよく、当該部屋内の既存のジェスチャ区域の視覚的表現を、例えば斯かるジェスチャ区域により操作される実用装置又は機能に関する情報を含み即座に見ることができる。
本発明の実施態様において、フィードバックは前記モバイル通信装置を介して種々の異なる方法で供給することができる。種々の実施態様によれば、前記フィードバック信号を供給するステップは:前記モバイル通信装置の表示スクリーン上に、前記位置データ及び該位置データに基づく位置指示子を含む前記空間の視覚的表現のうちの少なくとも一方を表示するステップ;前記モバイル通信装置の表示スクリーン上に、前記位置データ及び/又は前記コントローラにより決定された若しくは前記制御システムから受信された前記ジェスチャ区域定義データに基づいて、ジェスチャ区域の視覚的表現、ジェスチャ区域の特性及び拡張現実表現等の前記空間の画像に埋め込まれたジェスチャ区域の視覚的表現のうちの少なくとも1つを表示するステップ;前記コントローラにより決定された又は前記制御システムから受信された前記ジェスチャ区域定義データに基づいて、前記位置データに対応する位置におけるジェスチャ区域の有無、ジェスチャ区域の大きさ(寸法)、ジェスチャ区域の境界の位置、及びジェスチャ区域が前記位置データに対応する位置に対して位置され得る方向のうちの少なくとも1つを示す音声(オーディオ)信号を供給するステップ;並びに前記コントローラにより決定された又は前記制御システムから受信された前記ジェスチャ区域定義データに基づいて、前記位置データに対応する位置における既存のジェスチャ区域の有無、ジェスチャ区域の大きさ、又はジェスチャ区域の境界の位置を示す触覚信号を供給するステップ;を含む群から選択される少なくとも1つのステップを含む。理解されるように、特に上述されていないフィードバックを供給する他の形態も、例えば前記モバイル通信装置に含まれる特定の出力装置又はフィードバック装置に依存して可能であり得る。上記“触覚信号”なる用語は、例えばモバイル通信装置のバイブレーション等のような、ユーザにより認識することができる種々の種類のフィードバック信号を含むことができる。
更に他の実施態様によれば、前記モバイル通信装置は接触感知表示スクリーンを有し、前記フィードバック信号を供給するステップは前記表示スクリーン上にジェスチャ区域の視覚的表現を表示するステップを含み、前記入力信号を受けるステップは前記表示スクリーン上の前記視覚的表現を接触ジェスチャにより操作すると共に該操作に対応する操作命令コマンドを発生するステップを有する。当該方法は、例えば前記タッチスクリーン上にジェスチャ区域の境界又はジェスチャ区域の形状を視覚化するステップ、及びユーザがタッチスクリーンジェスチャ(摘まむ、広げる、拭う、タップする(叩く)、回す又は他のジェスチャ等)を用いて当該ジェスチャ区域の大きさ及び形状等の仕様を調整するステップを含むことができる。例えば、摘まむ及び広げるジェスチャは当該ジェスチャ区域を小さく及び大きくさせることができ、タッチスクリーン上に指又はスタイラスを用いて形状を描くジェスチャは、特定の形状を定義することができ、及び/又はタップする又は2回タップするジェスチャは定義されるべきジェスチャ区域の特定の仕様を設定するための選択メニュ又は入力ウインドウを視覚化することができる(機能若しくは関連する実用装置、又は寸法を設定するためのマニュアル入力等)。
本発明の他の実施態様において、前記入力ユニットは、前記入力信号を受けるステップが前記モバイル通信装置の動きデータを入力するステップを有する場合の加速度計又はジャイロスコープ、前記入力信号を受けるためのキーボード又は釦、及び前記入力信号が音響又は音声コマンドを有する場合の音声センサを有する群から選択される少なくとも1つの要素を有する。これら代替物の何れも、ジェスチャ区域データを操作するための入力を受けるために使用することができる。更に、音声コマンドは当該モバイル通信装置のオンボード音声認識機能を用いて認識することができる。また、小型スクリーンのモバイル通信装置は、釦又はキーボードを使用するオプションから利益を受け得るが、このオプションは、勿論、スマートフォンの構成により適用することもできる。
本発明の更に他の実施態様においは、前記入力信号を受けるステップにおいて、該入力信号は:ジェスチャ区域定義データを確認するためのジェスチャ区域定義確認情報;ジェスチャ区域の大きさ又は形状等のジェスチャ区域定義データを修正するための操作命令;ジェスチャ区域の関連付けられた機能を定義又は修正するための機能明細情報;ジェスチャ区域に関連付けられ且つ前記制御システムを介して制御可能な実用装置を修正するための実用装置明細情報を含む群から選択される少なくとも1つを示す。当業者であれば、他の入力信号及び入力手段も、制御システムとの組み合わせで使用される前記モバイル通信装置の仕様に依存して可能であることを理解することができる。
更に他の実施態様によれば、前記位置データを決定するステップは、前記空間内の軌跡に沿う前記モバイル通信装置の動きを表す位置シーケンスデータを決定するステップを有し、前記ジェスチャ区域定義データを決定するステップは、前記位置シーケンスデータに基づいてジェスチャ区域の寸法又は形状を決定するステップを有する。ユーザは、例えば、自身のモバイル通信装置を空間内で特定のパターン又は軌跡を辿って移動させることができ、このことは、定義されるべきジェスチャ区域の形状及び寸法を設定させる。
更に他の実施態様において、前記入力信号を受けるステップは、前記モバイル通信装置に含まれる加速度計又はジャイロスコープから入力信号を受けると共に、前記位置シーケンスデータを決定するために前記空間の画像に加えて又は代えて該入力信号を使用するステップを含む。
このような手段の使用は、位置シーケンスデータを決定するために前記画像キャプチャ装置を使用することに加えて又は代えてのものであり得る。例えば、当該方法は、モバイル通信装置の開始位置の位置データを、例えば本発明の方法を前記画像キャプチャ装置に関して上述したように用いて確定することにより開始することができ、それから、ユーザにより当該空間を介して移動されたモバイル通信装置の軌跡を確定するために前記加速度計又はジャイロスコープを使用することができる。これらの入力手段が画像キャプチャ装置によりキャプチャされた画像に加えて使用される場合、このことは、入力された位置シーケンスデータの精度にとり有益であり得る。
本発明の第2態様によれば、制御システムのためのジェスチャ区域定義データを取得するためにモバイル通信装置を動作させる方法が提供され、該方法は:前記モバイル通信装置により画像キャプチャ装置を用いて得られる空間の画像を入力するステップと;コントローラにより前記モバイル通信装置の位置データを前記画像から決定するステップと;前記位置データの決定に応答して、前記位置データについてのフィードバック情報を提供するフィードバック信号を前記モバイル通信装置の出力ユニットを介して供給するステップと;命令コマンドを示す入力信号を前記モバイル通信装置の入力ユニットを介して受けると共に、前記コントローラにより前記命令コマンドに基づいて前記ジェスチャ区域定義データを決定するステップと;を含む。
本発明の更に第3態様によれば、モバイル通信装置にロードされた場合に、該モバイル通信装置に前記第2態様による方法又は前記第1態様による方法を実行することを可能にさせる命令を有するコンピュータプログラム製品が提供される。
本発明の第4態様によれば、環境内の1以上の実用装置を制御するための制御システムが提供され、該制御システムは、空間から画像を得る画像キャプチャ装置及び前記空間におけるモバイル通信装置の位置データを前記画像から決定するコントローラを有し、更に、前記モバイル通信装置とデータを交換し、該モバイル通信装置に前記位置データを供給し、該モバイル通信装置からジェスチャ区域定義データを受信する送受信器手段を有する。
本発明は、添付図面を参照する幾つかの特定の実施態様の記載により更に説明される。詳細な説明は、本発明の可能性のある構成例を示すが、当該範囲に入る唯一の実施態様のみを記載するものと見なしてはならない。本発明の範囲は請求項において定義され、記載は本発明に対する限定を伴わない解説的なものと見なされるべきである。
図1は、ジェスチャ区域を用いる制御システムを概略的に示す。 図2は、本発明の方法を概略的に示す。 図3aは、本発明に使用可能な摘まみジェスチャを示す。 図3bは、本発明に使用可能な摘まみジェスチャを示す。 図4aは、本発明に使用可能な広げジェスチャを示す。 図4bは、本発明に使用可能な広げジェスチャを示す。 図5aは、本発明に使用可能な描きジェスチャを示す。 図5bは、本発明に使用可能な描きジェスチャを示す。 図6aは、本発明に使用可能な第1のタップジェスチャを示す。 図6bは、本発明に使用可能な第1のタップジェスチャを示す。 図7aは、本発明に使用可能な第2のタップジェスチャを示す。 図7bは、本発明に使用可能な第2のタップジェスチャを示す。 図8は、本発明の他の実施態様を示す。 図9は、本発明の方法の一実施態様を概略的に示す。 図10は、本発明の方法の一実施態様を概略的に示す。
本発明は、照明装置、オーディオシステム、テレビジョン、窓のブラインド又はカーテン、扉の錠、警報システム及び集中暖房システム等の制御されるべき実用装置を制御すべくユーザと対話する(例えば、ユーザ入力を受信する)ために1以上のジェスチャ区域の監視を適用する制御システムと共に使用することができる。ジェスチャ区域は、空間における該制御システムにより画像キャプチャ装置を用いて監視することができる監視領域である。好ましくは、このような画像キャプチャ装置は三次元(3D)撮像を行なうことを可能にするか、又は当該空間を3Dで監視することを可能にする(例えば、入力された画像に基づいて距離推定を可能にすることにより)。しかしながら、本発明は3D的側面に関係する幾らかの特定の機能を犠牲にして二次元(2D)設備に適用することもできる。本説明においては、3D制御システムが想定される(即ち、ジェスチャ区域及び位置の間を三次元で区別することを可能にする)。
一例として、見えない活性領域(即ち、ユーザが予め定めたジェスチャ区域)に手を置くことによって照明シーンを選択することにより照明を制御することができるような制御システムを考えることができる。このことは、ユーザが複数の接続された電灯を1つの容易な動作で制御することができることを意味する。更に、ジェスチャ区域を、定義した者にとり意味のある環境内の位置に配置することができる。例えば、或る人は、読書をし、且つ、該活性領域を心地よい読書照明設定をオン又はオフするために使用したい好みの椅子の近くにジェスチャ区域を配置するかも知れない。エンドユーザの身体位置に対する当該活性領域の近さは、何処にあるかを容易に思い出させる。
図1は、本発明による制御システム及び方法を適用することができる例示的な空間1、即ち居間を概略的に示している。居間1は、幾つかの家具、並びに肘掛け椅子2、コーヒーテーブル3、テレビジョン4及びランプ5等の特別なフィーチャを含んでいる。該居間1には、監視カメラ9及び10を含む制御システム8が設置されている。監視カメラ9及び10は、ユーザによりなされる手信号等のジェスチャを検出すると共に、居間1における実用装置を制御するために有用であり得る種々の他のフィーチャを検出するために該居間1を永久的に監視する。上記実用装置は、例えば、テレビジョン4及び照明ユニット又はランプ5を含むことができる。理解されるように、ここに図示されていない他の実用装置は、例えば、オーディオシステム、カーテン又は窓ブラインド、警報システム、集中暖房システム、電子レンジ、レンジフード又は食器洗い器等の台所機器、及び制御システム8を用いて有効に制御され得る何らかの他の実用装置を含むことができる。
特に、監視カメラ9及び10は居間1におけるユーザにより選択された位置(ユーザ選択位置)に位置する三次元ジェスチャ区域13、14及び15を監視する。制御システム8の所有者は、操作されるべき機器(例えば、テレビジョン4及びランプ5等)を操作するのに適した位置にジェスチャ区域13、14及び15を定義することができる。ジェスチャ区域13〜15の何れかで検出されるジェスチャ行動に基づいて何の実用装置に対して何の機能が実行されるべきかを区別するために制御システム8には異なる制御方法及び操作方法を適用することができるが、本例では、ユーザはテレビジョン4をオン又はオフするために単にジェスチャ区域15に手を伸ばすことができる。代わりに又は加えて、ユーザはテレビジョン4の異なる機能を操作するためにジェスチャ区域15内で異なるジェスチャを行うことができる。例えば、ユーザの手をジェスチャ区域15内で水平に保ち、該手を上方に持ち上げることは、制御システム8によりテレビジョン4の音量を増加させるものとして理解され得る。ジェスチャ区域15においてなされる他のジェスチャはテレビジョン4の他の機能を制御することができる。代わりに、異なるジェスチャ区域を、テレビジョン4の各機能のために又は幾つかの機能のために定義することもできる。このことは、制御システム8のユーザにとり完全に構成(設定)可能である。
ユーザが自身の手をジェスチャ区域14へ伸ばした場合、ランプ5はオンされる。更に、ユーザがコーヒーテーブル3上のジェスチャ区域13内にコーヒーのカップを置いた場合、制御システム8は、これを、居間内の複数のランプを制御して特定の事前にプログラムされた照明環境に切り換えるためのジェスチャとして解釈することができる。このことは、例えば、一日における現在の時刻に依存して、又はこれが日没の前若しくは後に生じたかに依存して実行することもできる。理解されるように、ジェスチャ区域13〜15等の全てのジェスチャ区域は、ユーザにより権限委託され(就役させられ)、且つ、プログラムされねばならない。ジェスチャ区域13〜15等のジェスチャ区域を就役させるためには、ジェスチャ区域定義データが生成されると共に、制御システムに記憶されねばならない。このジェスチャ区域定義データは、空間1内における当該ジェスチャ区域の正確な位置、該ジェスチャ区域の形状及び寸法、並びに何の実用装置を該ジェスチャ区域に関連付けるか及び何の機能を制御するか等の他の特性を定義することができる。種々のジェスチャ区域をコミッションさせるために、本発明の方法を適用することができる。
図2は、ジェスチャ区域を就役させるための本発明の方法の一実施態様を概略的に示す。図2において、ユーザ20はモバイル通信装置21(即ち、スマートフォン21)を監視される空間内の所望の位置で保持する。オプションとして、当該方法は、ユーザが釦(例えば、釦62)を押すか又はスマートフォン21若しくは当該制御システムに他の入力を供給することにより開始することもできる。居間1を三次元で監視することができる、即ち空間1内の正確な三次元位置を決定することを可能にする制御システム8の監視カメラ9及び10は、モバイル通信装置21を含む画像を入力する。監視カメラ9及び10から受信される画像を用いて、制御システム8によりユーザ20のスマートフォン21の正確な位置を確定することができ、該スマートフォン21に関する位置データを発生する。スマートフォン21の認識は、画像認識アルゴリズムにより実施することができる。また、制御システム8に対し、スマートフォン21が近くにあり、監視カメラ9及び10を介して検出することができることを通知するために一層複雑な方法を適用することもできる。制御システム8によりスマートフォン21の位置の位置データが決定されたなら、理解されるように、このデータは例えばWi-Fi(登録商標)又はブルートゥース(登録商標)を介してスマートフォン21に送信することができる。スマートフォン21の位置の検出を開始する前に、ユーザは新たなジェスチャ区域が権限委託されねばならないことをスマートフォン21上に示していたかも知れず、この目的のための命令及び何らかの指示信号がスマートフォン21から当該制御システムに送信されているかも知れない。
スマートフォン21により上記位置データが受信されたなら、制御システム8により標準的ジェスチャ区域25が自動的に作成され得る。該デフォルトのジェスチャ区域はデフォルトの半径rを有することができると共に、デフォルトの高さのものであり得る。理解されるように、スマートフォン21の位置にデフォルトの寸法及び形状のジェスチャ区域25を定義する代わりに、ユーザは自身のスマートフォン21を用いて当該ジェスチャ区域の所望の寸法及び形状を指定することもできる。更に他の例として、上記デフォルトのジェスチャ区域25をユーザによりスマートフォン21のタッチスクリーン60を介して供給されるフィードバックに基づいて修正することもできる。
ユーザによりタッチスクリーン60を備える自身のスマートフォン21を用いてジェスチャ区域の寸法及び形状をどの様に修正することができるかの例が、図3a/b、図4a/b、図5a/b、図6a/b及び図7a/bに図示されている。理解されるように、これらの図に示された入力を供給する固有の対話及び方法に加えて、入力はユーザにより自身のスマートフォン21を介して、本発明から逸脱することなく当業者にとり自明であり得る多数の他の方法で供給することもできる。
図3a及び図3bを参照すると、ユーザ20は自身の手30の人差し指31及び親指32を用いて、スマートフォン21のタッチスクリーン(接触感知スクリーン)60上に矢印35により示されているような摘まみ接触ジェスチャを行うことができる。斯かる摘まみジェスチャ35は、例えば定義されるべきジェスチャ区域38の寸法を減少させて一層小さなジェスチャ区域38’を生じさせることができる。このことが図3bに矢印40により示されている。
他の例として、図4a及び図4bに示されるように、ユーザ20は自身の手30の人差し指31及び親指32を用いて、スマートフォン21の接触感知スクリーン60上で広げ接触ジェスチャ36を行うことができる。広げジェスチャ36を行うことは、潜在的ジェスチャ区域44の寸法を一層大きな定義されるべきジェスチャ区域44’へと増大させることができる。理解されるように、図3a、図3b、図4a及び図4bに示される実行された修正に関するフィードバックは、スマートフォン21のタッチスクリーン60を介して供給することができる。
同様に、更なる代替例が図5a及び図5bに示されている。図5a及び図5bにおいて、ユーザ20は自身の手30の人差し指31を用いて当該スマートフォンの接触感知スクリーン60上に任意の形状50を描くことができる。このことは、当該コントローラ(例えば、スマートフォン21の)により、定義されるべきジェスチャ区域52の所望の形状と解釈することができる。図5bに示されたジェスチャ区域52は、ユーザ20により自身の人差し指31を用いて描かれた形状50に対応する境界53を備えた断面を有する。
更なる代替例として、図6a及び図6bに示されるように、ユーザは、図6aに接触ジェスチャ57として示されるように、スマートフォン21の接触感知スクリーン60上に自身の人差し指31を1回タップさせることができる。接触感知スクリーン60をタップすることにより、スクリーン60上に選択メニュ又はウインドウ65が現れ、ユーザ20により選択することが可能なオプション66を提示することができる。該選択メニュ65は、例えば、ユーザが定義されるべきジェスチャ区域に関連付けられるべき対応する実用装置を選択することを可能にする。該メニュ65からの選択は、当該スクリーン上のメニュ65の所望のオプションをタップすることにより、又は代わりに釦62等の制御釦を操作することにより行うことができる。
更に他の代替例が図7a及び図7bに示されている。図7aにおいて、ユーザ20は手30の人差し指31を使用してスマートフォン21の接触感知表示スクリーン60を、ジェスチャ70として示されるように、2回タップする。2回タップ(70)することにより、スクリーン60上には、定義されるべきジェスチャ区域に関連付けることができる種々の機能74を含むウインドウ又は選択メニュ72が表示される。本実施態様において、ユーザは当該定義されるべきジェスチャ区域を周囲照明に関連付け、電灯をオン及びオフし、照明レベルを変化させ又はカラーを変化させるための種々のオプションがメニュ72に提示される。当該ジェスチャ区域を特定の予め設定された照明条件又は事前にプログラムされた照明レベルに関連付けることも可能である。利用可能であり得る特別なオプションは、当該定義されるべきジェスチャ区域を、オプション75により示されるように、制御システム8により制御することができる種々の装置の種々の機能の組み合わせに関連付けることである。例えば、空間1における複数のランプを、特定の照明条件を確立するために同時に操作することができる。更に、当該組み合わせは、例えばユーザが自身の好みの肘掛け椅子2で本を読みたい場合、読書灯を穏やかなバックグラウンドミュージックを流すために前記オーディオシステムをオンすることと組み合わせて操作することができる。
図8には、本発明の方法の他の実施態様が概略的に示され、該実施態様においてスマートフォン21は制御システム8の助け無しで自身の位置の位置データを決定することができる。図8に示された実施態様においては、スマートフォン21自体が画像キャプチャ装置61、即ちオンボードカメラを有している。今日、多くのモバイル通信装置は2以上のオンボードカメラさえ(例えば、1つを当該モバイル通信装置の前面上に、もう1つを背面上に)有している。
スマートフォン21を居間1にわたって例えば図8に軌跡80により示されるように移動させることにより、該スマートフォン21はカメラ61によりキャプチャされた画像を比較し、この比較から空間1並びに該空間内の物体及びフィーチャ2〜5の3Dモジュールを確立する(3Dモジュールデータを発生する)ことができる。居間1の該3Dモジュールデータを使用して、スマートフォン21は居間1における自身の正確な位置を決定し、対応する位置データを発生することができる。次いで、本発明の方法の残部を、制御システム8及びスマートフォン21の両者に当該方法を実行するために必要な情報を供給するための幾つかの変更を伴って、上述した実施態様と同様に実行することができる。
本発明の方法の例示的実施態様が、図9に一連のステップにより概略的に示されている。図9において、本発明の方法の第1実施態様85に従って、監視カメラ9及び10を備える制御システム8は、ステップ88において、監視されるべき空間1の画像を入力するように動作される。これらの画像から、ステップ89において、モバイル通信装置の位置の位置データが決定される。このステップは、例えば図2に概略的に示されたような方法により実現することができる。次いで、図9のステップ90において、制御システム8により決定された上記位置データは、該制御システム8によりモバイル通信装置21に送信される。オプションとして、点線ボックス95により示されるように、該制御システムは既存のジェスチャ区域の又は複数の既存のジェスチャ区域のジェスチャ区域定義データをモバイル通信装置21に供給することもできる。該オプションのステップ95は、例えば既存のジェスチャ区域をユーザが自身のモバイル通信装置を用いて(例えば、斯かる既存のジェスチャ区域の視覚的表現が当該モバイル通信装置21のオンボードカメラ61からの生の画像に対するオーバーレイとしてスクリーン上に視覚化されるような拡張現実を用いて)検出及び修正することを可能にするように実行することができる。
必要な情報を受信したら、モバイル通信装置21は、次いでステップ97において、該モバイル通信装置21の出力ユニットにフィードバック信号を供給することによりユーザ20に対しフィードバックを供給する。該フィードバック信号は、位置情報についての、及びオプションとして当該制御システムに記憶された既存のジェスチャ区域についてのフィードバック情報を供給する。理解されるように、例えば標準のデフォルトのジェスチャ区域並びにその実際の寸法及び他の特性についてのフィードバックを含む、追加のフィードバックを供給することもできる。当業者であれば、フィードバックを供給するステップ97の間において実行することが可能な種々のフィードバックの可能性を認識することができる。ステップ99において、モバイル通信装置21はユーザ20から入力を受ける。ユーザ20により供給される該入力は、発生されるべきジェスチャ区域定義データを確立又は修正することに向けられたものとすることができる。例えば、フィードバックは、先に図3〜図7において示したように、モバイル通信装置21の接触感知スクリーンにより供給することができる。しかしながら、フィードバックはモバイル通信装置上に存在するキーボード又は如何なる他の入力手段を用いて供給することもできる。
ステップ99において受けた入力に基づいて、モバイル通信装置21のコントローラは、ステップ103において、確定されるべきジェスチャ区域を修正するための命令コマンドを確立する。次いで、ステップ105において、これら命令はモバイル通信装置21により制御システム8に送信される。これに対し、制御システム8は、ステップ106において、当該モバイル通信装置(端末)から受信された上記命令に基づいて、及び該モバイルフォン21の位置データ等の制御システム8にとり既に利用可能な情報に基づいて、ジェスチャ区域定義データを決定する。次いでステップ109において、該ジェスチャ区域定義データは、該データの使用のために制御システムに記憶される。
図9に関して、当該方法85の提案された方法ステップは、該図9の左側に示されているように、制御システム8又はモバイル通信装置21により実行されることに注意されたい。しかしながら、これは単なる例示に過ぎず、当業者であれば、斯かる方法ステップの幾つかは他の主体により実行することができ、又は図9ではスマートフォン21により実行されるべきと示されているステップを制御システム8により実行し若しくはその逆に実行することができると理解することができるであろう。
方法85に対する他のオプション的な方法ステップとして、ステップ100においてモバイルフォン21は部屋1内を或る経路に沿って移動させることができ、このことは例えば制御システム8の監視カメラ9及び10により検出することができる。この場合、制御システム8は部屋1において辿られた経路を表す位置シーケンスデータを確定することができる。他の例として、例えば図8に示された状況において、モバイル通信装置21自身が斯様な位置シーケンスデータを確定することができる。このような位置シーケンスデータは、次いで、ステップ99(ユーザから入力を受けるステップ)に対する入力として使用され、該入力は、例えば、ジェスチャ区域を当該位置シーケンスデータにより示される経路により囲まれるものと定義するために使用することができる。
本発明の他の方法が図10に示されている。図10は、例えば位置データをモバイル通信装置21自体により確定することができるような図8に示された状況に基づいている。図10に提示された方法は、図9のものと概ね同様であるが、幾つかのステップの順序が変更され、ステップのうちの幾つかが制御システム8の代わりにモバイル端末21により実行される。例えば、図10に示された方法において、ステップ188は画像を入力するステップを示すが、これら画像はモバイル通信装置21のオンボードカメラ61から入力される。次いで、ステップ189において、位置データが前述したようにモバイル通信装置21により確定される。オプションとして、ステップ196において、モバイル通信端末21により、既存のジェスチャ区域のジェスチャ区域定義データを制御システム8から供給することができる。このジェスチャ区域定義データは、ステップ196において、モバイル通信装置21に送信される。ステップ197において、該モバイル通信装置はユーザ20に対しフィードバックを供給し、ステップ199において、ユーザはジェスチャ区域定義データを修正又は確定する等のために入力を供給することができる。更に、オプションとしてのステップ200は、前述したような位置シーケンスデータを確定するために部屋1内の或る軌跡又は経路に沿ったモバイル通信装置21の移動を含む。ステップ203においては、ステップ199において受けた入力に基づいて命令コマンドが発生される一方、これら命令及びモバイル通信装置21にとり利用可能なデータを用いて、ステップ206において、ジェスチャ区域定義データが該モバイル通信装置21のコントローラにより決定される。次いで、ステップ205において(ステップ206及び205の順序は図9における方法85と比較して相違することに注意)、上記ジェスチャ区域定義データは制御システム8に送信される。ステップ209において、制御システム8は該ジェスチャ区域定義データを使用のために記憶する。
以上、本発明を幾つかの特定の実施態様に関して説明した。しかしながら、図面に示され本明細書に記載された斯かる実施態様は解説目的のためのみのものであり、決して本発明を限定することを意図するものではないことが理解されるであろう。ここに開示された本発明の内容は、添付請求項の範囲によってのみ限定されるものである。

Claims (15)

  1. 制御システムのためのジェスチャ区域定義データを、前記制御システムの外部のモバイル通信装置を介して得られるユーザ入力に基づいて取得する方法であって、
    センサ装置によりセンサ信号を受けると共に、コントローラにより該センサ信号から前記モバイル通信装置の位置データを決定するステップと、
    前記位置データの決定に応答して、前記モバイル通信装置を介して前記位置データに関するフィードバック情報を提供するフィードバック信号を供給するステップと、
    前記モバイル通信装置の入力ユニットを介して、命令コマンドを示す入力信号を受けるステップと、
    前記コントローラにより、前記命令コマンドに基づいて前記ジェスチャ区域定義データを決定するステップと、
    を有する、方法。
  2. 前記センサ装置が前記制御システムに含まれ、当該方法は、前記制御システムが前記位置データの決定に応答して前記モバイル通信装置に該位置データを送信するステップを更に有し、及び/又は
    前記センサ装置が前記モバイル通信装置に含まれ、当該方法は、前記モバイル通信装置が前記位置データを前記制御システムに送信するステップを更に有する、
    請求項1に記載の方法。
  3. 前記センサ装置は、画像を入力すると共に該画像から前記位置データを決定する画像キャプチャ装置、超音波トランスジューサ、無線周波数(RF)送受信器及び通信信号強度を決定する通信モジュールを含む群から選択される少なくとも1つの要素である、請求項1又は請求項2に記載の方法。
  4. 前記センサ装置は前記モバイル通信装置に含まれる画像キャプチャ装置であり、前記コントローラが前記モバイル通信装置の位置データを、入力された画像に基づいて空間のモデルデータを確定すると共に該モデルデータに基づいて前記画像キャプチャ装置の視点の位置を決定することにより決定する、請求項1ないし3の何れか一項に記載の方法。
  5. 前記モバイル通信装置により表示又は修正するために前記モバイル通信装置が前記制御システムから既存のジェスチャ区域の既存のジェスチャ区域定義データを受信するステップを更に有する、請求項1ないし4の何れか一項に記載の方法。
  6. 前記ジェスチャ区域定義データを決定するステップが、前記既存のジェスチャ区域を修正するための修正されたジェスチャ区域定義データを決定するステップを含む、請求項5に記載の方法。
  7. 前記フィードバック信号を供給するステップが、
    前記モバイル通信装置の表示スクリーン上に、前記位置データ及び該位置データに基づく位置指示子を含む空間の視覚的表現のうちの少なくとも一方を表示するステップ、
    前記モバイル通信装置の表示スクリーン上に、前記位置データ及び/又は前記コントローラにより決定された若しくは前記制御システムから受信された前記ジェスチャ区域定義データに基づいて、ジェスチャ区域の視覚的表現、ジェスチャ区域の特性及び拡張現実表現等の空間の画像に埋め込まれたジェスチャ区域の視覚的表現のうちの少なくとも1つを表示するステップ、
    前記コントローラにより決定された又は前記制御システムから受信された前記ジェスチャ区域定義データに基づいて、前記位置データに対応する位置におけるジェスチャ区域の有無、ジェスチャ区域の大きさ、ジェスチャ区域の境界の位置、及びジェスチャ区域が前記位置データに対応する位置に対して位置され得る方向のうちの少なくとも1つを示す音声信号を供給するステップ、
    前記コントローラにより決定された又は前記制御システムから受信された前記ジェスチャ区域定義データに基づいて、前記位置データに対応する位置における既存のジェスチャ区域の有無、ジェスチャ区域の大きさ、又はジェスチャ区域の境界の位置を示す触覚信号を供給するステップ、
    を含む群から選択される少なくとも1つのステップを含む、請求項1ないし6の何れか一項に記載の方法。
  8. 前記モバイル通信装置は接触感知表示スクリーンを有し、前記フィードバック信号を供給するステップは前記表示スクリーン上にジェスチャ区域の視覚的表現を表示するステップを含み、前記入力信号を受けるステップは前記表示スクリーン上の前記視覚的表現を接触ジェスチャにより操作すると共に該操作に対応する操作命令コマンドを発生するステップを有する、請求項1ないし7の何れか一項に記載の方法。
  9. 前記入力ユニットが、前記入力信号を受けるステップが前記モバイル通信装置の動きデータを入力するステップを有する場合の加速度計又はジャイロスコープ、前記入力信号を受けるためのキーボード又は釦、及び前記入力信号が音響又は音声コマンドを有する場合の音声センサを有する群から選択される少なくとも1つの要素を有する、請求項1ないし8の何れか一項に記載の方法。
  10. 前記位置データを決定するステップは空間内の軌跡に沿う前記モバイル通信装置の動きを表す位置シーケンスデータを決定するステップを有し、前記ジェスチャ区域定義データを決定するステップが前記位置シーケンスデータに基づいてジェスチャ区域の寸法又は形状を決定するステップを有する、請求項1ないし9の何れか一項に記載の方法。
  11. 前記入力信号を受けるステップが、前記モバイル通信装置に含まれる加速度計又はジャイロスコープから入力信号を受けると共に、前記位置シーケンスデータを決定するために前記空間の画像に加えて又は代えて該入力信号を使用するステップを含む、請求項10に記載の方法。
  12. 当該方法は制御システムのためのジェスチャ区域定義データを取得するためにモバイル通信装置内で実施され、
    前記センサ信号を受けると共に該センサ信号から前記モバイル通信装置の位置データを決定するステップは、センサ装置を用いて得られるセンサ信号を前記モバイル通信装置により受けると共に前記モバイル通信装置の位置データをコントローラにより該センサ信号から決定するステップを有し、
    前記位置データの決定に応答してフィードバック信号を供給するステップは、前記位置データの決定に応答して、前記位置データに関するフィードバック情報を提供するフィードバック信号を前記モバイル通信装置の出力ユーザを介して供給するステップを有し、
    前記命令コマンドを示す入力信号を受けるステップは、命令コマンドを示す入力信号を前記モバイル通信装置の入力ユニットを介して受けるステップを有し、
    前記ジェスチャ区域定義データを決定するステップは、前記コントローラにより前記ジェスチャ区域定義データを前記命令コマンドに基づいて決定するステップを有する、
    請求項1に記載の方法。
  13. 前記センサ装置からセンサ信号を受けるステップが、画像キャプチャ装置を用いて得られる空間の画像を前記モバイル通信装置により受けるステップを有し、前記位置データが該画像から決定される、請求項12に記載の方法。
  14. モバイル通信装置にロードされた場合に、該モバイル通信装置に請求項12に記載の方法又は請求項1ないし11の何れか一項に記載の方法を実行することを可能にさせる命令を有する、コンピュータプログラム。
  15. 環境内の1以上の実用装置を制御するための制御システムであって、空間から画像を得る画像キャプチャ装置及び前記空間におけるモバイル通信装置の位置データを前記画像から決定するコントローラを有し、更に、前記モバイル通信装置とデータを交換し、該モバイル通信装置に前記位置データを供給し、該モバイル通信装置からジェスチャ区域定義データを受信する送受信器手段を有する、制御システム。
JP2017502225A 2014-07-17 2015-07-16 ユーザ入力に基づいて制御システムのためのジェスチャ区域定義データを取得する方法 Active JP6242535B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14177477.8 2014-07-17
EP14177477 2014-07-17
PCT/EP2015/066352 WO2016009016A1 (en) 2014-07-17 2015-07-16 Method of obtaining gesture zone definition data for a control system based on user input

Publications (2)

Publication Number Publication Date
JP2017521793A true JP2017521793A (ja) 2017-08-03
JP6242535B2 JP6242535B2 (ja) 2017-12-06

Family

ID=51220405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017502225A Active JP6242535B2 (ja) 2014-07-17 2015-07-16 ユーザ入力に基づいて制御システムのためのジェスチャ区域定義データを取得する方法

Country Status (5)

Country Link
US (1) US11163367B2 (ja)
EP (1) EP3170162B1 (ja)
JP (1) JP6242535B2 (ja)
CN (1) CN106663365B (ja)
WO (1) WO2016009016A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3037917B1 (en) * 2014-12-24 2021-05-19 Nokia Technologies Oy Monitoring
US10057078B2 (en) * 2015-08-21 2018-08-21 Samsung Electronics Company, Ltd. User-configurable interactive region monitoring
WO2018023042A1 (en) * 2016-07-29 2018-02-01 Pcms Holdings, Inc. Method and system for creating invisible real-world links to computer-aided tasks with camera
JP6653489B2 (ja) * 2016-12-16 2020-02-26 パナソニックIpマネジメント株式会社 入力装置、及び、入力方法
CN110326259B (zh) 2017-03-02 2022-05-17 昕诺飞控股有限公司 联网家居设备的系统中的控制事件
CN107928591A (zh) * 2017-11-24 2018-04-20 佛山市顺德区美的洗涤电器制造有限公司 水槽洗碗机及其手势控制方法
US11164341B2 (en) * 2019-08-29 2021-11-02 International Business Machines Corporation Identifying objects of interest in augmented reality
BE1030060B1 (de) * 2021-12-21 2023-07-17 Miele & Cie Bedienvorrichtung und Verfahren zum Bedienen eines Reinigungsgeräts und Reinigungsgerät

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090027337A1 (en) * 2007-07-27 2009-01-29 Gesturetek, Inc. Enhanced camera-based input
US20090183125A1 (en) * 2008-01-14 2009-07-16 Prime Sense Ltd. Three-dimensional user interface
JP2011186892A (ja) * 2010-03-10 2011-09-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
US20110296353A1 (en) * 2009-05-29 2011-12-01 Canesta, Inc. Method and system implementing user-centric gesture control

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002334097A (ja) * 2001-02-09 2002-11-22 Seiko Epson Corp サービス提供システム、管理端末、移動体、サービス提供プログラム及びサービス提供方法
US8416217B1 (en) 2002-11-04 2013-04-09 Neonode Inc. Light-based finger gesture user interface
US9229540B2 (en) * 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
DE102004011569A1 (de) * 2004-03-10 2005-10-06 Torsten Masteit Vorrichtung und Verfahren zur drahtlosen Steuerung eines Personal-Computers
US8375336B2 (en) * 2008-05-23 2013-02-12 Microsoft Corporation Panning content utilizing a drag operation
EP3130983B1 (en) 2008-07-15 2018-11-14 Immersion Corporation Systems and methods for shifting haptic feedback function between passive and active modes
JP5271121B2 (ja) * 2009-03-09 2013-08-21 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US8766928B2 (en) * 2009-09-25 2014-07-01 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
RU2562805C2 (ru) 2009-12-15 2015-09-10 Конинклейке Филипс Электроникс Н.В. Система и способ для физической ассоциации сцен освещения
US8659658B2 (en) * 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8494566B2 (en) * 2010-06-01 2013-07-23 Microsoft Corporation Hybrid mobile phone geopositioning
US8150384B2 (en) * 2010-06-16 2012-04-03 Qualcomm Incorporated Methods and apparatuses for gesture based remote control
US9454260B2 (en) * 2010-08-04 2016-09-27 Hewlett-Packard Development Company, L.P. System and method for enabling multi-display input
US9477302B2 (en) * 2012-08-10 2016-10-25 Google Inc. System and method for programing devices within world space volumes
EP2442600B1 (en) * 2010-10-14 2013-03-06 Research In Motion Limited Near-field communication (NFC) system providing nfc tag geographic position authentication and related methods
EP2628363B1 (en) 2010-10-15 2021-05-05 Signify Holding B.V. A method, a user interaction system and a portable electronic devicefor controlling a lighting system
EP2759057A2 (en) * 2011-09-22 2014-07-30 Earsoft Limited Dynamic range control
JP5331269B1 (ja) * 2012-02-28 2013-10-30 パナソニック株式会社 通信システム、通信装置及び通信方法
DE102012207170A1 (de) 2012-04-30 2013-10-31 Zumtobel Lighting Gmbh Multifunktionale Sensoreinheit und Verfahren zur Justierung der Einheit
US9292085B2 (en) * 2012-06-29 2016-03-22 Microsoft Technology Licensing, Llc Configuring an interaction zone within an augmented reality environment
US9274608B2 (en) * 2012-12-13 2016-03-01 Eyesight Mobile Technologies Ltd. Systems and methods for triggering actions based on touch-free gesture detection
US9934611B2 (en) * 2013-09-11 2018-04-03 Qualcomm Incorporated Structural modeling using depth sensors
US9891712B2 (en) * 2013-12-16 2018-02-13 Leap Motion, Inc. User-defined virtual interaction space and manipulation of virtual cameras with vectors
CN103744511B (zh) * 2014-01-10 2017-01-04 西安电子科技大学宁波信息技术研究院 一种交互式皮影表演系统及操作控制方法
US9690370B2 (en) * 2014-05-05 2017-06-27 Immersion Corporation Systems and methods for viewport-based augmented reality haptic effects

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090027337A1 (en) * 2007-07-27 2009-01-29 Gesturetek, Inc. Enhanced camera-based input
US20090183125A1 (en) * 2008-01-14 2009-07-16 Prime Sense Ltd. Three-dimensional user interface
US20110296353A1 (en) * 2009-05-29 2011-12-01 Canesta, Inc. Method and system implementing user-centric gesture control
JP2011186892A (ja) * 2010-03-10 2011-09-22 Sony Corp 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
EP3170162B1 (en) 2018-12-12
US20170205891A1 (en) 2017-07-20
CN106663365B (zh) 2019-12-10
EP3170162A1 (en) 2017-05-24
WO2016009016A1 (en) 2016-01-21
JP6242535B2 (ja) 2017-12-06
CN106663365A (zh) 2017-05-10
US11163367B2 (en) 2021-11-02

Similar Documents

Publication Publication Date Title
JP6242535B2 (ja) ユーザ入力に基づいて制御システムのためのジェスチャ区域定義データを取得する方法
KR102071575B1 (ko) 이동로봇, 사용자단말장치 및 그들의 제어방법
KR101224351B1 (ko) 제어될 디바이스에 연관된 객체를 찾아내는 방법 및 상기 디바이스를 제어하는 방법
CA2959707C (en) Home automation control using context sensitive menus
CN107852566B (zh) 基于背景的手势识别和控制
US10642372B2 (en) Apparatus and method for remote control using camera-based virtual touch
CN105573628B (zh) 用户终端设备及其控制方法和用于提供内容的系统
EP3182747B1 (en) Method and device for controlling a device
US20170099720A1 (en) Method for controlling mobile terminal and program for controlling mobile terminal
US9760174B1 (en) Haptic feedback as accessibility mode in home automation systems
JP5787238B2 (ja) 制御装置及び操作制御方法並びに操作制御プログラム
US20150288764A1 (en) Method and apparatus for controlling smart terminal
EP3847632B1 (en) System and method for smart remote scene creation
US10511702B2 (en) Information processing device and information processing method
KR20210142190A (ko) 대화형 주방 디스플레이
CN112041803A (zh) 电子设备及其操作方法
KR102333931B1 (ko) 영상 투사 장치 및 그의 동작 방법
KR20090076124A (ko) 가전 기기 제어 방법 및 이를 이용한 장치
JP6049494B2 (ja) 携帯端末
KR101760841B1 (ko) 인지 가능한 출력의 공간 분포를 실현하기 위한 제어 시스템의 설정들을 제공하는 장치 및 방법
WO2017043141A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN111033606A (zh) 信息处理装置、信息处理方法和程序
CN114384848A (zh) 交互方法、装置、电子设备及存储介质
KR102587618B1 (ko) 서비스 특화 입출력 방법 및 장치
KR101685108B1 (ko) 홈 기기를 제어하는 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170113

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170113

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171107

R150 Certificate of patent or registration of utility model

Ref document number: 6242535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250