JP2017512327A - 制御システム及び制御システムの動作方法 - Google Patents

制御システム及び制御システムの動作方法 Download PDF

Info

Publication number
JP2017512327A
JP2017512327A JP2016545895A JP2016545895A JP2017512327A JP 2017512327 A JP2017512327 A JP 2017512327A JP 2016545895 A JP2016545895 A JP 2016545895A JP 2016545895 A JP2016545895 A JP 2016545895A JP 2017512327 A JP2017512327 A JP 2017512327A
Authority
JP
Japan
Prior art keywords
gesture
controller
user
motion picture
control system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016545895A
Other languages
English (en)
Inventor
ジョナサン デイヴィッド メイソン
ジョナサン デイヴィッド メイソン
ジミトリー ヴィクトロヴィッチ アリアクセユー
ジミトリー ヴィクトロヴィッチ アリアクセユー
サナエ クライビ
サナエ クライビ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2017512327A publication Critical patent/JP2017512327A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/32Remote control based on movements, attitude of remote control device

Abstract

装置を制御するための制御システムを動作させる方法であって、前記制御システムは、モーションキャプチャ装置と、前記装置の1又は複数の装置機能を制御するための制御信号を供給するコントローラと、を有し、前記方法は、前記モーションキャプチャ装置によって、空間のモーションピクチャイメージを取得するとともに、前記コントローラに前記モーションピクチャイメージを供給するステップと、前記空間におけるユーザからのユーザ入力を検出するため、前記コントローラによって、前記モーションピクチャイメージを分析するとともに、前記コントローラによって、前記ユーザによって実行されたジェスチャを検出するステップと、前記1又は複数の装置機能の選択された装置機能を制御するため、前記コントローラによって、前記ジェスチャの前記検出に応じて、前記装置に制御信号を供給するステップと、を有し、前記分析するステップは、前記コントローラが前記モーションピクチャイメージにおける1又は複数のジェスチャゾーンをモニタすることによって、実行され、前記ジェスチャゾーンの各々は、前記1又は複数の装置機能の各装置機能と関連付けられており、前記制御信号を供給するため、前記コントローラは、前記ジェスチャゾーンを決定し、前記ジェスチャは、前記選択された装置機能を制御するために検出される。

Description

本発明は、概して、装置を制御するための制御システムの動作方法に関する。当該制御システムは、モーションキャプチャ装置と、装置の1又は複数の装置機能を制御するための制御信号を供給するためのコントローラと、を有する。上記方法は、モーションキャプチャ装置によって、空間のモーションピクチャイメージを取得するとともに、コントローラにモーションピクチャイメージを供給するステップと、空間におけるユーザからのユーザ入力を検出するため、コントローラによって、モーションピクチャイメージを分析するとともに、コントローラによって、ユーザによって実行されたジェスチャを検出するステップと、1又は複数の装置機能の選択された装置機能を制御するため、コントローラによって、ジェスチャの検出に応じて、装置に制御信号を供給するステップと、を有する。また、本発明は、かかる方法を実行するための制御システム、及び、コンピュータプログラム製品に関する。
ジェスチャにより装置を動作させるための方法及びシステムが、様々なアプリケーション分野において利用可能である。かかるシステムの早期実現は、単純に、装置を動作させるため、モーションセンサによるモーションの検出に依存する。しかしながら、技術は進化しており、現在では、特定のモーションパターンを検出したり、ユーザが特定のジェスチャによって装置の動作を対象にできるようにしたり、センサの前における任意の種類のモーションしか感知しない装置を動作させたりすることを許容している。
上記機能を可能とするため、イメージ分析アルゴリズムが、ジェスチャ認識を実行するために適用され得る。かかるイメージパターン認識方法は、機能性を増すために、ますます正確であり、信頼性を高めることを目的とする。これに関し、ジェスチャ認識は、より正確なだけとはならない。ジェスチャ認識は、より複雑でもあり、制御システムの演算能力をより多く必要とする。これにより、システムは、アイドル状態において、より多くのエネルギーを消費し、又は、機能性に関してトレードオフを必要とする。
同時に、従来のスイッチより様々な制御態様を所望又は必要とする、ますます多くのシステムが利用可能になる。現代の家庭では、様々な装置が、スマートフォンの使用を通じて、制御可能になっている。しかしながら、スマートフォンは、常に手元にあるわけではないため、この分野では、ジェスチャベースの制御の使用が登場している。例えば、かかる装置は、ジェスチャ制御可能な照明、テレビ、コンピュータなどを含んでいてもよい。ジェスチャベースの制御を当てにし得る装置の増加により、ジェスチャベースの制御システム及び方法の上述の複雑性も増加している事実がある。
洗練されたジェスチャ認識システムの一例として、米国特許出願公開第2011/0193939号明細書は、ユーザの物理的相互作用ゾーンが、ユーザ及び他の要因のサイズに基づいて規定される、デプスカメラを持つモーションキャプチャシステムに言及している。当該相互作用ゾーンは、ユーザに固定されることができ、対応する動作にモーションをマッピング可能とするため、独自の調整システムを持つよう、適切に形作られ得る。当該システムは、ユーザの手(又は、他の身体部分)の動きを追跡し、それを、ディスプレイ上の対応する動作に変換する。
米国特許出願公開第2011/296353号明細書、米国特許出願公開第2009/027337号明細書、及び、米国特許出願公開第2013/009861号明細書は、ユーザ入力に基づいてジェスチャを適用する他の制御システムについて言及している。
本発明の目的は、進化したレベルの複雑性、及び、複雑性の許容レベルにおけるユーザ快適性を供給する装置制御方法を提供することである。
本発明は、装置を制御するための制御システムを動作させる方法を提供するという点で、これらの目的及び他の目的を達成する。上記方法によって動作される制御システムは、モーションキャプチャ装置と、装置の1又は複数の装置機能を制御するための制御信号を供給するコントローラと、を有する。上記方法は、モーションキャプチャ装置によって、空間のモーションピクチャイメージを取得するとともに、コントローラにモーションピクチャイメージを供給するステップを有する。また、上記方法は、空間におけるユーザからのユーザ入力を検出するため、コントローラによって、モーションピクチャイメージを分析するとともに、コントローラによって、ユーザによって実行されたジェスチャを検出するステップを有する。ジェスチャの上記検出に応じて、上記方法に係る制御システムは、1又は複数の装置機能の選択された装置機能を制御するため、装置に制御信号を供給する。特に、本発明によれば、上記モーションピクチャイメージを分析するステップは、コントローラがモーションピクチャイメージにおける1又は複数のジェスチャゾーンをモニタすることによって、実行され、ジェスチャゾーンの各々は、1又は複数の装置機能の各装置機能と関連付けられている。装置に制御信号を供給するため、コントローラは、ジェスチャゾーンを決定し、ジェスチャは、選択された装置機能を制御するために検出される。
本発明は、ユーザによる特定のコマンド又は命令を区別するため、手(又は、他の身体部分)がした正確な動きを正確に認識するための複雑なジェスチャ認識システムが、多様な装置機能が単純なジェスチャにより制御されるようにするためには必要でないという見識に基づいている。本発明では、ジェスチャは、制御システムによってモニタされるジェスチャゾーンを規定するとともに、特定の装置機能に各ジェスチャゾーンを割り当てることによって、互いに区別される。上記制御システムは、制御システムが制御される装置機能を直接的に区別できるようにするため、規定されたジェスチャゾーンにおける身体の活動を検出する必要があるだけである。
当然のことながら、特定のジェスチャゾーンにおけるユーザの不測の動きによって任意の装置機能が予期せず活性化又は不活性化されることを回避するため、上記制御システムは、好ましくは、ジェスチャゾーンにおけるモーションを実行する身体部分を区別し得る。さらに、ジェスチャゾーンは、モニタされる空間における特定の物体(例えば、椅子又はテーブル)に固定されてもよく、人にさえ固定されてもよい。物体又は人への上記固定は、リンク付けされる物体又は人に関する固定位置に相対的に配置されるようにジェスチャゾーンを規定することによって、実装され得る。
上記制御システムは、同時に複数のジェスチャゾーンをモニタしてもよく、モーションが、これらのジェスチャゾーンの1又は複数において検出されるとすぐに、対応する動作を実行してもよい。物体又は人に固定される代わりに、ジェスチャゾーンは、空間を規定する環境の特定の空間的特徴に固定されてもよい。例えば、制御システムは、部屋の中ほど、又は、部屋の入口の真正面、又は、窓に対する固定位置、に配置されたジェスチャゾーンをモニタしてもよい。ジェスチャゾーンが物体に固定された場合、ジェスチャゾーンは、例えば、テーブルの上、長椅子又はシートの横、ランプの下の領域、又は、空間における物体に対して任意の他の適切な位置、に配置されることができる。ジェスチャゾーンが人に固定された場合、ジェスチャゾーンは、例えば、ユーザの肩の上の頭の左又は右、人のお腹の前、人の脚の左側又は右側(例えば、膝あたり)、又は、ユーザによって便利に達することができる任意の他の適切な位置、に配置されることができる。
本出願において、「エンティティ」なる用語は、エンティティ、即ち、ジェスチャゾーンが固定される、物体、空間的特徴、又は、人(ユーザ又は他の人)を示すために使用されている。当然のことながら、複数のジェスチャゾーンが、同一のエンティティに固定されてもよく、状況又はユーザによって設定された嗜好に依存して異なるエンティティに固定されてもよい。あるいは、又は、加えて、複数のジェスチャゾーンが、単一のエンティティに固定されてもよい。
異なるジェスチャゾーンは、制御システムが、検出されたジェスチャを制御される正しい装置機能と関連付けることができるように、制御システムによって区別されなければならない。このため、ジェスチャゾーンを重ねることは、逆効果であり得る。しかしながら、共通の境界を有する、隣接した接触しているジェスチャゾーンは、例えば、2D又は3Dにおいて、区別されることができる。
制御システム自体は、モーションキャプチャ装置(例えば、カメラ)に対して、ジェスチャゾーン及びモーションキャプチャ装置と位置決めされた異なるジェスチャゾーンを区別可能とするために、これらのジェスチャゾーンが、モーションキャプチャ装置に対して、異なる(即ち、重ならない)距離に配置されている限り、深さ追跡機能を備えていてもよい。かかる深さ追跡機能は、例えば、空間の3D情報を取得するため、異なる位置から空間をモニタする複数のカメラからなるモーションキャプチャ装置により実装されてもよい。あるいは、モーションキャプチャ装置は、単一のカメラからなっていてもよく、この場合、制御システムは、イメージ分析アルゴリズムにより深さを区別するように構成される。
例えば、深さは、単一のカメラが空間を移動しながら、人又は物体のサイズをモニタすることによって、区別され得る。モーションキャプチャ装置がユーザをモニタする場合、単純に移動中大きくなったり小さくなったりする人のサイズをモニタすることによって、ユーザが、カメラの近くで、又は、カメラから遠くで、ジェスチャを実行するかどうかを区別することが可能である。ユーザ(足、膝、尻、肩、肘、手、及び、頭の位置など)からの骨格情報を追跡することによって、制御システムは、人が、モーションキャプチャ装置の前に、立っているのか、座っているのか、寝ているのかを識別することができる。上記情報のいずれも、複雑なモーション又はイメージ分析アルゴリズムに頼る必要なく、ユーザによる特定の入力を更に区別するために使用されることができる。
制御システムが、ジェスチャゾーンをモニタできるようにするために、ジェスチャゾーンのジェスチャゾーン定義データが、メモリなどのデータリポジトリにアクセスすることによって、又は、リモートサーバなどの無線又は有線ネットワークを通じてジェスチャゾーン定義データを受信することによって、制御システムのコントローラにより取得され得る。このジェスチャゾーン定義データは、任意の時間において、ユーザ又はオペレータによって制御システムに供給されたユーザ嗜好から受信された入力に基づいていてもよい。
上述したことに加えて、他の実施形態によれば、コントローラは、モーションピクチャイメージからユーザ又は他の人を認識するために、モーションピクチャイメージから補助情報を供給すべく、パターン認識解析を実行してもよい。例えば、コントローラは、制御システムが様々な人からの入力を区別することを可能とするため、顔認証を実行するようにプログラムされてもよい。顔認証を実行する代わりに、当該情報は、イメージから区別可能なユーザ又は他の人の身体の他の特徴を認識することによって、取得されてもよい。
しかしながら、制御システム及び方法が、ユーザ又は他の人を認識するのに適している場合、コントローラは、当該実施形態によれば、認識されたユーザと関連付けられたジェスチャゾーンプロファイルにアクセスしてもよい。ここで、ジェスチャゾーンプロファイルは、認識されたユーザのためにカスタマイズされたジェスチャゾーン定義データを含み、ジェスチャゾーンプロファイルは、認識されたユーザによるユーザ入力を検出するため、モーションピクチャイメージの分析を実行するためのコントローラによって用いられる。換言すれば、第1のユーザは、1又は複数の装置を制御するための優先的なジェスチャゾーンを定義することができ、これらのジェスチャゾーンは、当該ユーザによって適切と考えられるエンティティに配置、ひも付けされる。例えば、子供は、大人よりも地面に近い物体にひも付けされた、部屋の照明を制御するためのジェスチャゾーンを持つことができる。このことは、子供が照明を容易に制御できるようにする。
更に他の実施形態では、コントローラによってモニタされるジェスチャゾーンの1又は複数の位置、形状、又は、有無が、コントローラによって認識される1又は複数のユーザ及び/又は他の人の有無に依存していてもよく、コントローラは、当該認識に依存する様々なジェスチャゾーン定義データを用いる。例えば、コントローラは、ユーザが知らない人の存在を認識してもよく、これに基づいて、ユーザに訪問者がいることを決定してもよい。これに応じて、制御システムは、照明状態を調整してもよいし、又は、音楽を再生するためのオーディオシステムをオンにしてもよい。
他の実施形態によれば、上記方法は、2人のユーザ及び/又は他の人の間の距離を決定するステップを有し、コントローラによってモニタされるジェスチャゾーンの1又は複数の位置、形状、又は、有無のうちの少なくとも1つが、当該距離に依存する。例えば、幾つかのジェスチャゾーンが、2人の人が互いの近くに立っている場合にのみ現れてもよい。又は、2人の人の間のジェスチャゾーンが、互いに対する2人の人の相対位置に依存したサイズで調整されてもよい。
本発明の他の実施形態によれば、上記方法は、コントローラが、空間において現在行なっている活動の認識のためのモーションピクチャイメージの1又は複数について、パターン認識解析を実行するステップを有する。この実施形態では、コントローラによってモニタされるジェスチャゾーンの1又は複数の位置、形状、又は、有無のうちの少なくとも1つが、活動の認識に依存し、コントローラは、活動の認識に依存する様々なジェスチャゾーン定義データを用いる。例えば、制御システム及びコントローラは、モーションピクチャイメージに見えている人がテーブルの周囲に座っていることを認識し、これに依存して、ジェスチャゾーンの位置及びサイズを調整してもよい。例えば、照明を制御するためのジェスチャゾーンが、初期設定で、チャンバの入口近くに配置されている場合、制御システムは、制御システムが、ユーザ又は他の人がテーブルの周囲に座っていることを検出した場合に、このジェスチャゾーンの位置をテーブルの上の領域に調整してもよい。
第2の態様によれば、本発明は、通信ネットワークからダウンロード可能な、及び/又は、コンピュータ読み取り可能な媒体及び/又はマイクロプロセッサ実行可能な媒体上に格納された、コンピュータプログラム製品に関し、当該製品は、本発明の第1の態様に従った方法を実装するためのプログラムコード命令を有する。さらに、本発明は、かかるコンピュータプログラム製品を有するデータキャリアに関する。
第3の態様によれば、本発明は、装置を制御するための制御システムであって、前記制御システムは、モーションキャプチャ装置と、前記装置の1又は複数の装置機能を制御するための制御信号を供給するコントローラと、を有し、前記モーションキャプチャ装置は、空間のモーションピクチャイメージを取得するとともに、前記コントローラに前記モーションピクチャイメージを供給するように構成され、前記コントローラは、前記空間におけるユーザからのユーザ入力を検出するため、前記モーションピクチャイメージを分析するとともに、前記ユーザによって実行されたジェスチャを検出するように構成され、前記コントローラは、前記1又は複数の装置機能の選択された装置機能を制御するため、前記ジェスチャの前記検出に応じて、前記装置に制御信号を供給するように構成され、前記分析を実行するため、前記コントローラは、前記モーションピクチャイメージにおける1又は複数のジェスチャゾーンをモニタするように構成され、前記ジェスチャゾーンの各々は、前記複数の装置機能の各装置機能の1つと関連付けられており、前記制御信号を供給するため、前記コントローラは、前記ジェスチャゾーンを決定するように構成され、前記ジェスチャは、前記選択された装置機能を制御するために検出される、制御システムに関する。
以下では、本発明が、添付の図面を参照して、本発明の幾つかの特定の実施形態によって説明される。
図1は、本発明の一実施形態に係る方法を概略的に図示している。 図2Aは、本発明の制御システムのモーションキャプチャ装置によって取得されるビデオイメージを概略的に図示している。 図2Bは、本発明の制御システムのモーションキャプチャ装置によって取得されるビデオイメージを概略的に図示している。 図3は、図2A及び図2Bに図示される状況において使用される、本発明の制御システムを概略的に図示している。 図4は、本発明の制御システムにおいて使用されるモーションキャプチャ装置におけるカメラ装置の視野を概略的に図示している。 図5は、本発明の制御システムにおけるモーションキャプチャ装置におけるカメラ装置が深さ情報を供給するために協調する方法を概略的に図示している。
本説明において、モーションピクチャイメージなる用語は、モーションキャプチャ装置によって撮影されるイメージを示すために使用されている。モーションピクチャなる用語は、これにより、イメージ上に記録されたシーンで起こる任意のモーションが識別され得る、一連の連続的に記録されたイメージを意味するものであると理解されるべきである。本発明の多くの実施形態において、モーションキャプチャ装置は、ビデオカメラ装置であり、モーションピクチャイメージは、1又は複数のカメラによるシーン(即ち、部屋又は他のモニタされる空間)の記録などのビデオイメージである。他の実施形態では、モーションキャプチャ装置は、熱センサ、熱カメラ、又は、又は、モーションが登録され得るイメージを登録することができる他のタイプのセンサなどの感熱式モーション記録手段を有していてもよい。本発明の詳細な説明では、ビデオイメージ及びビデオキャプチャ装置について言及がなされる。しかしながら、本発明は、一般的なビデオキャプチャ装置に限定されず、ここで示されるように、様々なモーションキャプチャ装置を含むことができることが理解されるべきである。このため、ビデオキャプチャ装置も含むような「モーションキャプチャ装置」なる用語、及び、ビデオイメージも含むような「モーションピクチャイメージ」なる用語を用いる請求項について言及がなされる。
図1、図2A、図2B、及び、図3は、本発明が適用され得る典型的な状況において使用されるような、本発明の方法、キャプチャされたビデオイメージ、及び、制御システムを概略的に図示している。図3に図示されるように、制御システム60は、少なくともコントローラ62を有し、オプションで、メモリ63を有する。制御システム内のメモリの形式であるデータリポジトリの使用が好ましいが、制御システム60は、追加的又は代替的に、例えば、データネットワークを通じてアクセス可能な外部メモリ、又は、任意の他の入力装置、又は、代替的に定義データが取得され得るサーバを利用してもよい。
制御システム60は、無線信号72を用いて、無線ネットワークの無線ルータ66と通信する。あるいは、制御システム60は、有線ネットワーク(図示省略)に接続されていてもよく、又は、制御システム60のカメラ装置68,69によって形成されるビデオキャプチャ装置と直接ケーブル接続されていてもよい。図3に図示される実施形態では、ビデオキャプチャ装置カメラ装置68,69は、コントローラ62との無線データ接続を通じてビデオイメージを交換するため、無線信号73,74ひいては無線ルータ66と通信する。図3の実施形態では、ビデオキャプチャ装置68,69は、図2A及び図2Bに示されるように、居間30のビデオイメージを取得するための2つのカメラ装置からなる。あるいは、異なる数のカメラ装置が、ビデオイメージを取得するために適用されてもよい。例えば、制御システム60は、ビデオイメージを取得する単一のカメラ装置に基づいていてもよい。さらに、図3の実施形態では、カメラ装置が用いられているが、代替的に、記録、配置、及び/又は、合図可能な適切なタイプのセンサが、ビデオイメージを取得するために適用され得る。図3のシステムでは、2つのカメラ68,69が、ビデオイメージから深さ情報を取得するために付与されている。
図2Aは、ユーザ44が存在している居間30から、カメラ68,69の1つによってキャプチャされたビデオイメージを図示している。居間30では、制御システムを通じて制御され得る複数の装置が設置されている。例えば、居間は、ランプ43、テレビセット35、及び、スピーカ40a,40bに接続されたオーディオシステム38を有している。また、居間30では、テーブル33、及び、オーディオシステム38が置かれたキャビネット37が存在している。
図1は、本発明の方法1を概略的に図示している。本発明の方法は、図2A、図2B、及び、図3を参照して、以下説明される。本発明の方法では、ステップ3において、カメラ装置68,69からなるビデオキャプチャ装置が、ビデオイメージをキャプチャし、キャプチャしたビデオイメージを、無線ルータ66及び無線信号72〜74を介して、制御システム60のコントローラ62に供給する。カメラの1つによってキャプチャされた典型的なイメージが、図2Aに図示されており、上記において簡潔に説明されてきた。コントローラ62は、受信されたビデオイメージの各々において、永続的に、複数のジェスチャゾーン48〜52、55、及び、56をモニタする。このモニタリングは、上記方法のステップ5において、ビデオキャプチャ装置カメラ装置68,69によってキャプチャされたビデオイメージを分析することにより、実行される。当該ジェスチャゾーンが、図2Aに示されている。ユーザ44に固定された複数のジェスチャゾーン48、49、50、51、及び、52が、規定されている。ジェスチャゾーンを固定することによって、ジェスチャゾーン48〜52の各々が、ユーザ44に対する固定の相対位置に配置されている。ジェスチャゾーン48及び52が、ユーザの足の上側の近くの、ユーザ44の左側及び右側に配置されている。ジェスチャゾーン49及び51が、ユーザ44の頭の左側及び右側に配置されている。そして、ジェスチャゾーン50が、ユーザ44の頭の上に配置されている。ユーザ44に固定されたジェスチャゾーン48〜52の各々は、ユーザが、居間30における様々な装置35、38、及び、43の装置機能を容易に制御できるように、ユーザがアクセスするのに便利な位置に配置されている。また、ジェスチャゾーンは、異なる位置において定義されている。例えば、ジェスチャゾーン56は、テレビ35の前に定義されており、ジェスチャゾーン55は、テーブル33の上に定義されている。
ジェスチャゾーン48〜52、55、及び、56の各々をモニタするためのコントローラ62によって用いられるジェスチャゾーン定義データは、メモリ63からコントローラ62によって取得されてもよい。このジェスチャゾーン定義データは、システムを設置するとともに、嗜好を示す一方、ユーザ44(又は、任意の他のオペレータ)から受信される入力に基づいていてもよいし、又は、予め格納されていてもよい。
方法1のステップ7において、分析中、制御システムは、ジェスチャゾーン48〜52、55、及び、56のいずれかにおいて現在行なわれているジェスチャの認識によって、ユーザ入力が受信されるかどうかを決定する。何のユーザ入力又はジェスチャも検出されない場合、続く枝8において、ステップ5及び7におけるモニタリング及び分析が続けられる。ステップ7においてジェスチャが検出された場合、上記方法は、枝9に進む。枝9は、枝10と枝11とに分かれている。ここで、枝11は、受信されるジェスチャが処理される一方で、ジェスチャゾーンのモニタリングが続けられることを保証する。枝10は、受信されたジェスチャの処理と関連付けられている。
ステップ15において受信されたジェスチャを処理するため、コントローラ62は、ジェスチャが検出された正確なジェスチャゾーンを決定する。ジェスチャゾーン48〜52、55、及び、56の各々は、制御システム60によって制御される装置35、38、及び、43の1つの装置機能と関連付けられている。好ましくは、単一の装置機能が、複数のジェスチャゾーンと関連付けられ得る。結果、これらの関連付けられたジェスチャゾーンのいずれかにおいてジェスチャを検出することが、装置機能の制御をトリガする。しかしながら、装置機能は、単一のジェスチャゾーンと関連付けられていてもよい。当然のことながら、複数の装置機能を単一のジェスチャゾーンに関連付けることは、逆効果である。この場合、1つのジェスチャゾーンにおいて受信されたジェスチャが、当該ジェスチャゾーンと関連付けられた第1又は第2の装置機能を制御するものであるかどうかを決定するために、他の分析が必要となるためである。本発明の最も基本的な実施形態では、受信されるジェスチャに関する任意の他の情報を取得するために、如何なる他の分析も実行されず、ジェスチャゾーンは、1つの装置機能とのみ関連付けられるが、複数のジェスチャゾーンが、単一の装置機能と関連付けられていてもよい。
図2Bは、ジェスチャゾーン49の中に手58を挙げているユーザ44を図示している。制御システム60は、手58がジェスチャゾーン49の中に挙げられていることを、単純に検出する。ユーザ44が、ジェスチャゾーン49と関連付けられた装置機能を制御しようとしていることを単に検出するために、手58によって実行される任意のモーションの他の分析は、必要ではない。ジェスチャゾーン49は、ランプ43のオンオフ切り替えと関連付けられている。従って、ジェスチャゾーン49の中へ手58を挙げることによって、ランプ43が、点灯される。このことが、図2Bにおいて、符号59で概略的に示されている。
図1の方法では、ステップ7において、ジェスチャゾーン48〜52、55、又は、56の1つが、ユーザ入力を受信したことが検出される。次いで、枝10において、ユーザ入力の処理が、ステップ15において始まる。一方、システムは、ステップ5及び7におけるモニタリング及び分析を続ける。ステップ15において、制御システム60は、手58がジェスチャゾーン49において挙げられていることを決定し、メモリ63から、コントローラが、ジェスチャゾーン49がランプ43のオンオフ切り替えと関連付けられていることを示すデータを取得する。上記方法1のステップ23において、ランプ43をオンに切り替えるための対応する制御信号が、無線信号72,75によって、ランプ43に送信される。
重要なことに、以下で説明されるステップ17〜20は、方法1に対して、オプションのステップであることに留意すべきである。図1において、これらのステップ17〜20は、例示的な目的のために図示されている。しかしながら、図1の方法1は、異なる実施形態において、ステップ17〜20を省略し、ステップ15からステップ23へジャンプすることができる。
ステップ17〜20は、キャプチャされたビデオイメージから追加的な情報を取得するために、制御システムのコントローラ62によって実行され得るオプションの追加的なステップを示している。例えば、ステップ17において、コントローラ62は、イメージからユーザ44を認識するために、受信されたビデオイメージについてパターン認識解析を実行する。ステップ17によって、制御システム60は、どのユーザがどの入力を供給したのかを認識することができる。又は、代替的に、入力が既知のユーザから受信されたのか、又は、ビデオイメージに存在している未知の人から受信されたのかを認識することができる。この情報は、例えば、システムを各ユーザのためにパーソナライズするため、パーソナライズされたジェスチャゾーンのためのジェスチャゾーン定義データが存在するユーザプロファイルの使用を可能にするために使用されてもよい。例えば、ユーザ44は、図2A及び図2Bにおいて示されるように定義された自身のジェスチャゾーンを持っていてもよい。しかしながら、異なるユーザが、彼/彼女にとってより便利な異なる位置において定義されたジェスチャゾーンを持っていてもよい。また、入力が既知のユーザ又は未知の人から受信されたかどうかの検出を可能とすることによって、上記システムは、この情報に依存して異なるように作動してもよい。例えば、上記システムは、既知のユーザからの入力のみを許容するために、未知の人からの入力を無視するようにプログラムされてもよい。あるいは、上記システムは、未知の人が、既知のユーザが利用可能な全ての装置機能のうちの限られた数の装置機能のみを制御可能にするようにプログラムされてもよい。
ステップ18において、コントローラは、イメージにおける2人のユーザ又は他の人の間の距離を決定する。あるいは、システムは、ユーザとイメージにおける物体などとの間の距離を決定してもよい。これは、例えば、コントローラによってモニタされるジェスチャゾーンの1又は複数の位置、形状、又は、有無を、距離に依存させるために使用され得る。例えば、テレビ35からの特定の距離以内にユーザ44が居る場合にのみ、図2A及び図2Bにおけるジェスチャゾーン56などの特定のジェスチャゾーンが、モニタされてもよい。
ステップ19において、コントローラ62は、モニタされる空間30において現在行なわれている活動を認識するため、ビデオキャプチャ装置カメラ装置68,69から受信した1又は複数のビデオイメージのパターン認識解析を実行してもよい。例えば、ステップ19において、コントローラ62は、ユーザ44が、テーブル33の方へ歩いていくのを検出してもよく、これに応じて、モニタリングのため、テーブル33の上のジェスチャゾーン55を活性化させてもよい。あるいは、コントローラ62は、ステップ19において、ユーザ又は他の人がシート又はテーブル33近くの他のシートに座っているかどうかを検出してもよく、これに応じて、ジェスチャゾーン55を活性化させてもよい。当然のことながら、他の現在行なわれている活動の検出、及び、それに対する所望の反応が、ステップ19を通じて実装されてもよい。
ステップ20において、コントローラ62は、カメラ装置68,69から受信したビデオイメージから深さ情報を確立する。これは、様々な態様においてなされ得る。深さ情報は、単一のビデオキャプチャ装置カメラ装置を用いてキャプチャされたビデオイメージから取得され得る。このことが、図4及び図5を参照して、以下説明される。
図1において、ステップ17〜20は、(互いに並行して)同時に実行されるように、概略的に図示されている。当然のことながら、ステップ17〜20は、本発明にとってそれぞれ完全にオプションであり、任意の所望の順序で連続的に実施されてもよい。本発明は、図1に図示されるこれらのステップの特定の順序及びタイミングに限定されない。
図4は、ただ1つのカメラ装置80しかない場合に、どのようにして、ビデオキャプチャ装置カメラ装置が、キャプチャされたイメージから深さ情報を取得することができるのかを概略的に図示している。カメラ装置80は、人83をモニタする。図4に示される位置において、人83は、カメラ装置80によってキャプチャされるイメージを下から上まで完全に満たしている。人83の高さが、Hで示されている。人83は、カメラ装置80から距離D1の位置に立っている。カメラ80の視野は、85で示されている。カメラ80は、地面の上、高さ81に位置している。人83´は、人83と同じ人である。ただし、人83´は、カメラ80から更に後ろの距離D2の位置にいる。人83´によって示される位置において、人の足から頭までの高さHは、イメージのより小さい領域を満たしており、従って、人は、カメラ装置80によってキャプチャされたイメージ上でより小さくなる。高さHを知ることによって、又は、イメージに対して人が移動した場合の相対的な高さを比較することによって、カメラ装置80によってキャプチャされたイメージから、深さ情報が、制御システムによって、取得されることができる。第1の位置における人83の距離、第2の位置における人83´の距離、及び、後ろの壁88の距離が、それぞれ、D1、D2、D3で示されている。
図5は、ビデオキャプチャ装置を形成している2つのカメラ装置90,91を用いる場合、どのようにして、イメージから深さ情報が取得されるのかを概略的に図示している。カメラ装置90の視野が、点線92a、92bで概略的に示されている。また、カメラ装置91の視野が、点線94a、94bで概略的に示されている。(概略的に図示された)2人の人95,96が、カメラ90とカメラ91との両方の視野において立っている。カメラ90のイメージ上の人95のエッジが、実線107−1、107−2で示されている。また、カメラ90のイメージ上の人96のエッジが、実線108−1、108−2で示されている。カメラ91のイメージにおいて、実線102−1、102−2は、人95の輪郭を示しており、実線103−1、103−2は、人96の輪郭を示している。人95と人96との間において、モニタされるジェスチャゾーン100が、存在している。
明らかに、カメラ91のイメージにおいて、人95と人96とを区別することは困難であり、不可能でさえある。これは、人96が、人95のずっと後ろに立っているためである。さらに、人96がジェスチャゾーン100へ手を伸ばした場合、このことは、カメラ91によって検出されない。ジェスチャゾーン100は、人95の後ろに配置されており、見えないためである。カメラ90のイメージにおいて、人95と人96との両方、及び、ジェスチャゾーン100が、完全に見えている。従って、ジェスチャゾーン100へ手を伸ばして人96によって実行されたジェスチャは、カメラ90によってキャプチャされたビデオイメージから検出されることができる。カメラ90,91によってキャプチャされたビデオイメージから、異なる人95,96を区別可能とするための深さ情報が取得されることができ、ジェスチャ100が常にモニタされ、オブジェクト間の距離情報(例えば、人95と人96との間の距離)さえ抽出できる。
本発明の方法及びシステムは、従来技術のジェスチャベースの制御システム及び方法より優れた、様々な利点を供給する。例えば、本発明のシステムは、イメージにおいてパターン認識を実行するための先進的な分析アルゴリズムを基本的に必要とせずに、多くの装置機能を制御することができる。ジェスチャゾーンにおいて身体(手など)を単純に検出することは、制御される装置機能を識別するのに十分である。ブールパラメータ(0又は1、左又は右など)によって制御される装置機能のため、ジェスチャゾーンにおいて身体の存在を単に検出することは、機能の完全な制御を供給するのに十分である。さらに、ジェスチャゾーンのモニタのみを必要とすることによって、他のタスクのために多くの演算能力が節約され、エネルギー消費を減少させる。これは、ジェスチャゾーンの検出のために完全なイメージのモニタを必要としないためである。より進んだ設定では、ジェスチャゾーンのみ、又は、そのうちの小さな領域のみをモニタし、より小さな領域において一旦活動が検出されるとモニタリングの領域を拡大することも可能である。これは、例えば、活動の単純検出を最初に実行することを可能にし、活動が検出された後で進んだ分析を追加することを可能にする。上記のより進んだ分析は、モーションパターンの認識、又は、図1と関連して上述されたステップ17〜20のいずれかを含むことができる。さらに、これらのステップ17〜20は、既に上述したような制御システムを動作させるために実装される標準プロセスの一部であってもよい。
本発明が、本発明の特定の実施形態と関連して説明されてきた。当然のことながら、図面に示され、ここで説明された実施形態は、例示の説明のみのために意図されており、本発明を限定する意図は決してない。ここで議論された本発明の文脈は、添付の請求項の範囲によって単に限定される。

Claims (15)

  1. 装置を制御するための制御システムを動作させる方法であって、前記制御システムは、モーションキャプチャ装置と、前記装置の1又は複数の装置機能を制御するための制御信号を供給するコントローラと、を有し、前記方法は、
    前記モーションキャプチャ装置によって、空間のモーションピクチャイメージを取得するとともに、前記コントローラに前記モーションピクチャイメージを供給するステップと、
    前記空間におけるユーザからのユーザ入力を検出するため、前記コントローラによって、前記モーションピクチャイメージを分析するとともに、前記コントローラによって、前記ユーザによって実行されたジェスチャを検出するステップと、
    前記1又は複数の装置機能の選択された装置機能を制御するため、前記コントローラによって、前記ジェスチャの前記検出に応じて、前記装置に制御信号を供給するステップと、
    を有し、
    前記分析するステップは、前記コントローラが前記モーションピクチャイメージにおける1又は複数のジェスチャゾーンをモニタすることによって、実行され、前記ジェスチャゾーンの各々は、前記1又は複数の装置機能の各装置機能の1つと関連付けられており、前記制御信号を供給するため、前記コントローラは、前記ジェスチャゾーンを決定し、前記ジェスチャは、前記選択された装置機能を制御するために検出される、方法。
  2. 前記モニタされるジェスチャゾーンの少なくとも1つが、前記空間に存在するエンティティと固定されるとともに、前記モーションピクチャイメージの少なくとも1つにおいて可視的であり、前記エンティティが、物体又は空間的特徴の少なくとも1つであり、前記空間的特徴が、前記空間を規定している環境の特徴である、請求項1記載の方法。
  3. 前記モニタされるジェスチャゾーンの少なくとも1つが、前記空間に存在するエンティティと固定されるとともに、前記モーションピクチャイメージの少なくとも1つにおいて可視的であり、前記エンティティが、前記ユーザ又は他の人の少なくとも1つである、請求項1又は2に記載の方法。
  4. 複数のジェスチャゾーンが、前記ユーザに固定されており、これにより、前記固定されたジェスチャゾーンの各々が、前記ユーザに対して異なる位置に配置され、前記固定されたジェスチャゾーンが、つながっておらず、且つ、重なっていない、請求項3記載の方法。
  5. 前記モニタされるジェスチャゾーンのジェスチャゾーン定義データが、前記コントローラによる、前記ジェスチャゾーン定義データを含むデータリポジトリへのアクセス、あるいは、無線又は有線ネットワークを通じた前記ジェスチャゾーン定義データの受信、の少なくとも1つによって、取得される、請求項1乃至4のいずれか1項に記載の方法。
  6. 前記ユーザ又は他の人の認識のため、前記コントローラによって、前記モーションピクチャイメージの1又は複数について、パターン認識解析を実行するステップを更に有する、請求項1乃至5のいずれか1項に記載の方法。
  7. 前記ユーザを認識する際、前記コントローラが、前記認識されるユーザと関連付けられたジェスチャゾーンプロファイルにアクセスするステップを更に有し、前記ジェスチャゾーンプロファイルが、前記認識されるユーザのためにカスタマイズされたジェスチャゾーン定義データを含み、前記ジェスチャゾーンプロファイルが、前記認識されるユーザによるユーザ入力を検出するための前記モーションピクチャイメージの前記分析を実行するため、前記コントローラによって用いられる、請求項6記載の方法。
  8. 前記コントローラによってモニタされる前記ジェスチャゾーンの1又は複数の位置、形状、又は、有無のうちの少なくとも1つが、前記コントローラによって認識される1又は複数のユーザ及び/又は他の人の有無に依存しており、前記コントローラが、前記認識に依存する様々なジェスチャゾーン定義データを用いる、請求項6又は7に記載の方法。
  9. 2人のユーザ及び/又は他の人の間の距離を決定するステップを更に有し、前記コントローラによってモニタされる前記ジェスチャゾーンの1又は複数の位置、形状、又は、有無のうちの少なくとも1つが、前記距離に依存する、請求項6乃至8のいずれか1項に記載の方法。
  10. 前記コントローラが、前記空間において現在行なっている活動の認識のための前記モーションピクチャイメージの1又は複数について、パターン認識解析を実行するステップを更に有し、
    前記コントローラによってモニタされる前記ジェスチャゾーンの1又は複数の位置、形状、又は、有無のうちの少なくとも1つが、前記活動の前記認識に依存し、前記コントローラが、前記活動の前記認識に依存する様々なジェスチャゾーン定義データを用いる、請求項1乃至9のいずれか1項に記載の方法。
  11. 前記モーションピクチャイメージから深さ情報を確立するステップを更に有し、前記方法が、
    前記分析するステップが、前記モーションピクチャイメージから深さ情報を取得するための2以上のカメラユニットを用いて取得されたモーションピクチャイメージを分析することによって実行される、
    前記分析するステップが、前記深さ情報を確立するために、前記モーションピクチャイメージにおける物体及び/又はユーザ及び/又は他の人のサイズ分析を行なうステップを有する、
    のうちの少なくとも1つを有する、請求項1乃至10のいずれか1項に記載の方法。
  12. モーションキャプチャ装置と、装置の1又は複数の装置機能を制御するための制御信号を供給するためのコントローラと、を有する制御システム上で実行される場合、請求項1乃至11のいずれか1項に記載の方法に従って、前記制御システムを動作させることが可能である、コンピュータプログラム製品。
  13. 装置を制御するための制御システムであって、前記制御システムは、モーションキャプチャ装置と、前記装置の1又は複数の装置機能を制御するための制御信号を供給するコントローラと、を有し、
    前記モーションキャプチャ装置は、空間のモーションピクチャイメージを取得するとともに、前記コントローラに前記モーションピクチャイメージを供給するように構成され、
    前記コントローラは、前記空間におけるユーザからのユーザ入力を検出するため、前記モーションピクチャイメージを分析するとともに、前記ユーザによって実行されたジェスチャを検出するように構成され、
    前記コントローラは、前記1又は複数の装置機能の選択された装置機能を制御するため、前記ジェスチャの前記検出に応じて、前記装置に制御信号を供給するように構成され、
    前記分析を実行するため、前記コントローラは、前記モーションピクチャイメージにおける1又は複数のジェスチャゾーンをモニタするように構成され、前記ジェスチャゾーンの各々は、前記複数の装置機能の各装置機能の1つと関連付けられており、前記制御信号を供給するため、前記コントローラは、前記ジェスチャゾーンを決定するように構成され、前記ジェスチャは、前記選択された装置機能を制御するために検出される、制御システム。
  14. 前記コントローラによってモニタされる前記ジェスチャゾーンのジェスチャゾーン定義データを格納するためのデータリポジトリ、
    前記コントローラによってモニタされる前記ジェスチャゾーンのジェスチャゾーン定義データを受信するための無線又は有線通信ユニット、
    のうちの少なくとも1つを更に有する、請求項13記載の制御システム。
  15. 前記モーションキャプチャ装置が、1又は複数のカメラユニットを含み、前記コントローラが、前記1又は複数のカメラユニットによって受信されるモーションピクチャイメージから深さ情報を確立するように構成される、請求項13又は14に記載の制御システム。
JP2016545895A 2014-02-07 2015-01-26 制御システム及び制御システムの動作方法 Pending JP2017512327A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14154248.0 2014-02-07
EP14154248 2014-02-07
PCT/EP2015/051463 WO2015117852A1 (en) 2014-02-07 2015-01-26 Method of operating a control system and control system therefore

Publications (1)

Publication Number Publication Date
JP2017512327A true JP2017512327A (ja) 2017-05-18

Family

ID=50112719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016545895A Pending JP2017512327A (ja) 2014-02-07 2015-01-26 制御システム及び制御システムの動作方法

Country Status (5)

Country Link
US (1) US10191536B2 (ja)
EP (1) EP3103106A1 (ja)
JP (1) JP2017512327A (ja)
CN (1) CN105993038A (ja)
WO (1) WO2015117852A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10057078B2 (en) * 2015-08-21 2018-08-21 Samsung Electronics Company, Ltd. User-configurable interactive region monitoring
CN107436678B (zh) * 2016-05-27 2020-05-19 富泰华工业(深圳)有限公司 手势控制系统及方法
CN110879532B (zh) * 2019-12-11 2021-12-07 中国科学院长春光学精密机械与物理研究所 一种控制系统及设计方法
US11127131B1 (en) * 2021-02-22 2021-09-21 Marc Michael Thomas Systems and methods to assess abilities of two or more individuals to perform collective physical acts
US20240098359A1 (en) * 2022-09-19 2024-03-21 Lenovo (United States) Inc. Gesture control during video capture

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003316510A (ja) * 2002-04-23 2003-11-07 Nippon Hoso Kyokai <Nhk> 表示画面上に指示されたポイントを表示する表示装置、及び表示プログラム。
JP2009500709A (ja) * 2005-06-30 2009-01-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 物体の動きのパターンを認識する方法
JP2010534895A (ja) * 2007-07-27 2010-11-11 ジェスチャー テック,インコーポレイテッド 高度なカメラをベースとした入力
JP2012058884A (ja) * 2010-09-07 2012-03-22 Sony Corp 情報処理装置、および情報処理方法
US20130261871A1 (en) * 2012-04-02 2013-10-03 Google Inc. Gesture-Based Automotive Controls
JP2014109994A (ja) * 2012-12-04 2014-06-12 Alpine Electronics Inc ジェスチャ認識装置および方法ならびにプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8539357B2 (en) * 2007-11-21 2013-09-17 Qualcomm Incorporated Media preferences
US8693724B2 (en) * 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US9400548B2 (en) 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
RU2455676C2 (ru) 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US9245193B2 (en) * 2011-08-19 2016-01-26 Qualcomm Incorporated Dynamic selection of surfaces in real world for projection of information thereon
KR101314641B1 (ko) * 2012-06-15 2013-10-04 엠텍비젼 주식회사 사용자 제스처를 이용한 조작 방법 및 디지털 장치
CN102722080B (zh) * 2012-06-27 2015-11-18 杭州南湾科技有限公司 一种基于多镜头拍摄的多用途立体摄像方法
CN102982557B (zh) 2012-11-06 2015-03-25 桂林电子科技大学 基于深度相机的空间手势姿态指令处理方法
CN103353935B (zh) * 2013-07-19 2016-06-08 电子科技大学 一种用于智能家居系统的3d动态手势识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003316510A (ja) * 2002-04-23 2003-11-07 Nippon Hoso Kyokai <Nhk> 表示画面上に指示されたポイントを表示する表示装置、及び表示プログラム。
JP2009500709A (ja) * 2005-06-30 2009-01-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 物体の動きのパターンを認識する方法
JP2010534895A (ja) * 2007-07-27 2010-11-11 ジェスチャー テック,インコーポレイテッド 高度なカメラをベースとした入力
JP2012058884A (ja) * 2010-09-07 2012-03-22 Sony Corp 情報処理装置、および情報処理方法
US20130261871A1 (en) * 2012-04-02 2013-10-03 Google Inc. Gesture-Based Automotive Controls
JP2015521127A (ja) * 2012-04-02 2015-07-27 グーグル・インク ジェスチャーに基づく自動車の制御
JP2014109994A (ja) * 2012-12-04 2014-06-12 Alpine Electronics Inc ジェスチャ認識装置および方法ならびにプログラム

Also Published As

Publication number Publication date
US20170177073A1 (en) 2017-06-22
CN105993038A (zh) 2016-10-05
WO2015117852A1 (en) 2015-08-13
US10191536B2 (en) 2019-01-29
EP3103106A1 (en) 2016-12-14

Similar Documents

Publication Publication Date Title
JP2017512327A (ja) 制御システム及び制御システムの動作方法
US9740187B2 (en) Controlling hardware in an environment
KR102253098B1 (ko) 전자장치에 대한 엑세스를 제어하기 위한 전자장치 및 방법
EP2966371B1 (en) Room information inferring apparatus, room information inferring method, and air conditioning apparatus
EP3133818B1 (en) Method and apparatus for controlling device, and smart mat
JP2020101560A (ja) レーダ対応センサフュージョン
EP3582174B1 (en) Electronic device for establishing a user schedule
US20130088422A1 (en) Input apparatus and input recognition method
TW201721473A (zh) 智能系統
CN107533422A (zh) 服务器和服务器的控制群组行为的方法
CN104159360A (zh) 照明控制方法、装置及设备
WO2014182974A1 (en) Location information determined from depth camera data
US20110091069A1 (en) Information processing apparatus and method, and computer-readable storage medium
GB2525476A (en) Method and device for monitoring at least one interior of a building, and assistance system for at least one interior of a building
KR20170140726A (ko) 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법
US20170290430A1 (en) Effect control system of screening facility chair and method thereof
TW201726337A (zh) 基於腦電訊號控制之智慧型機器人系統和方法
KR101416574B1 (ko) 스마트 조명 제어 장치 및 방법
US9794532B2 (en) Projector control apparatus, projector system, and projector control method
US10735685B2 (en) Control method of presented information, control device of presented information, and speaker
JP2019220145A (ja) 操作端末、音声入力方法、及びプログラム
US11195525B2 (en) Operation terminal, voice inputting method, and computer-readable recording medium
US20210063978A1 (en) Information processing apparatus and non-transitory computer readable medium storing program
CN110462665A (zh) 用于监视照明系统的使用的方法和装置
US20220295015A1 (en) Systems and Methods for Telepresence Rooms

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181018

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190613