JP2013178631A - 機器の制御装置、制御方法、プログラム及び記憶媒体 - Google Patents
機器の制御装置、制御方法、プログラム及び記憶媒体 Download PDFInfo
- Publication number
- JP2013178631A JP2013178631A JP2012041485A JP2012041485A JP2013178631A JP 2013178631 A JP2013178631 A JP 2013178631A JP 2012041485 A JP2012041485 A JP 2012041485A JP 2012041485 A JP2012041485 A JP 2012041485A JP 2013178631 A JP2013178631 A JP 2013178631A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- picture
- recognition
- recognition unit
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
【課題】ユーザにとって分かり易く且つ簡便なジェスチャによって、種々の機器に対する操作を行うことが可能な機器の制御装置を提供する。
【解決手段】機器の制御装置は、対象物を利用して機器(電気機器など)の操作を行うために好適に使用される。対象物認識手段は、操作すべき機器に予め関連付けられた対象物を認識し、ジェスチャ認識手段は、対象物を利用して機器を操作するために、ユーザによって行われた所定のジェスチャを認識する。そして、操作手段は、対象物認識手段及びジェスチャ認識手段の認識結果に基づいて、所定のジェスチャが行われた対象物に関連付けられた機器の操作を行う。
【選択図】図2
【解決手段】機器の制御装置は、対象物を利用して機器(電気機器など)の操作を行うために好適に使用される。対象物認識手段は、操作すべき機器に予め関連付けられた対象物を認識し、ジェスチャ認識手段は、対象物を利用して機器を操作するために、ユーザによって行われた所定のジェスチャを認識する。そして、操作手段は、対象物認識手段及びジェスチャ認識手段の認識結果に基づいて、所定のジェスチャが行われた対象物に関連付けられた機器の操作を行う。
【選択図】図2
Description
本発明は、ユーザのジェスチャに基づいて機器の操作を行う技術分野に関する。
この種の技術が、例えば特許文献1乃至3に提案されている。特許文献1には、ステレオカメラを用いて、ハンドサインなどによるユーザのジェスチャを認識し、テレビ等の操作を行う技術が記載されている。特許文献2には、テレビなどの表示装置の近辺に設置したカメラを用いてユーザのジェスチャ(手を近づける、手を挙げる、手のひらを回転させるといったジェスチャ)を認識し、そのジェスチャに基づいて、表示装置に表示している画像を移動させたり、ズームしたり、回転させたりする技術が記載されている。特許文献3には、カメラを用いて、名刺に記載された電話番号やファックス番号やメールアドレスなどを認識し、名刺を特定の方向に動かすといったジェスチャが行われた際に、電話やファックスなどを行う技術が記載されている。
特許文献1に記載された技術では、ユーザの行動ログによる操作の最適化を行っているが、ジェスチャ自体は空間内で目標なく行う必要があったため、意図した操作を適切に行わせることができない場合があった。また、特許文献2に記載された技術では、ディスプレイの前の特定の位置でジェスチャを行う必要があったため、ジェスチャを行う位置が限定されていた。また、特許文献3に記載された技術では、名刺に関する操作に限定されていた。以上のことから、ユーザにとって分かり易く且つ簡便なジェスチャによって、種々の機器に対する操作を行うことができれば便宜である。
本発明が解決しようとする課題としては、上記のものが一例として挙げられる。本発明は、ユーザにとって分かり易く且つ簡便なジェスチャによって、種々の機器に対する操作を行うことが可能な機器の制御装置、制御方法、プログラム及び記憶媒体を提供することを目的とする。
請求項1に記載の発明では、機器の制御装置は、操作すべき機器に関連付けられた対象物を認識する対象物認識手段と、前記対象物を利用して前記機器を操作するための所定のジェスチャを認識するジェスチャ認識手段と、前記対象物認識手段及び前記ジェスチャ認識手段の認識結果に基づいて、前記所定のジェスチャが行われた前記対象物に関連付けられた前記機器の操作を行う操作手段と、を備える。
請求項11に記載の発明では、機器の制御装置によって実行される制御方法は、操作すべき機器に関連付けられた対象物を認識する対象物認識工程と、前記対象物を利用して前記機器を操作するための所定のジェスチャを認識するジェスチャ認識工程と、前記対象物認識工程及び前記ジェスチャ認識工程の認識結果に基づいて、前記所定のジェスチャが行われた前記対象物に関連付けられた前記機器の操作を行う操作工程と、を備える。
請求項12に記載の発明では、コンピュータを有する機器の制御装置によって実行されるプログラムは、前記コンピュータを、操作すべき機器に関連付けられた対象物を認識する対象物認識手段、前記対象物を利用して前記機器を操作するための所定のジェスチャを認識するジェスチャ認識手段、前記対象物認識手段及び前記ジェスチャ認識手段の認識結果に基づいて、前記所定のジェスチャが行われた前記対象物に関連付けられた前記機器の操作を行う操作手段、として機能させる。
請求項13に記載の発明では、記憶媒体は、請求項12に記載のプログラムを記憶したことを特徴とする。
本発明の1つの観点では、機器の制御装置は、操作すべき機器に関連付けられた対象物を認識する対象物認識手段と、前記対象物を利用して前記機器を操作するための所定のジェスチャを認識するジェスチャ認識手段と、前記対象物認識手段及び前記ジェスチャ認識手段の認識結果に基づいて、前記所定のジェスチャが行われた前記対象物に関連付けられた前記機器の操作を行う操作手段と、を備える。
上記の機器の制御装置は、対象物を利用して機器(電気機器など)の操作を行うために好適に使用される。対象物認識手段は、操作すべき機器に予め関連付けられた対象物を認識し、ジェスチャ認識手段は、対象物を利用して機器を操作するために、ユーザによって行われた所定のジェスチャを認識する。そして、操作手段は、対象物認識手段及びジェスチャ認識手段の認識結果に基づいて、所定のジェスチャが行われた対象物に関連付けられた機器の操作を行う。
上記の機器の制御装置によれば、ユーザは、対象物に対してジェスチャを行うことで、当該対象物に関連付けられた機器の操作を行うことができる。このように対象物とジェスチャとを組み合わせることで、ユーザは複雑なジェスチャを覚えることなく、簡易なジェスチャにより種々の操作を実現させることができる。また、上記の機器の制御装置によれば、操作のためのジェスチャを行う位置は特定の場所に限定されず、対象物がある場所であれば種々の場所でジェスチャを行うことができる。また、ユーザは、対象物を目標にしてジェスチャを行うことができるため、ジェスチャを行うべき位置を容易に把握することができる。以上より、上記の機器の制御装置によれば、ユーザにとって分かり易く且つ簡便なジェスチャによって、機器に対する種々の操作や、種々の機器に対する操作を適切に行うことが可能となる。
上記の機器の制御装置の一態様では、前記対象物認識手段は、前記対象物が存在する位置を検出し、前記ジェスチャ認識手段は、前記所定のジェスチャが行われた位置を検出し、前記操作手段は、前記対象物認識手段及び前記ジェスチャ認識手段が検出した位置に基づいて、前記所定のジェスチャが行われた位置に存在する前記対象物に関連付けられた前記機器の操作を行う。この態様によれば、ユーザによって所定のジェスチャが行われた対象物を適切に特定することが可能となる。
上記の機器の制御装置の好適な例では、前記対象物及び前記所定のジェスチャが少なくとも含まれる空間をカメラで撮影した画像を取得する手段を更に備え、前記対象物認識手段は、前記画像を解析することで、前記空間に存在する前記対象物を認識して、当該対象物の位置を検出し、前記ジェスチャ認識手段は、前記画像を解析することで、前記空間で行われた前記所定のジェスチャを認識して、当該ジェスチャが行われた位置を検出する。この場合、好ましくは、前記対象物は、再帰性反射材が塗布され、前記カメラは、その近傍に光源が設けられており、前記対象物認識手段は、前記再帰性反射材で反射された光に対応する画像に基づいて、前記対象物を認識する。これにより、対象物の認識を容易に行うことが可能となる。
上記の機器の制御装置の他の好適な例では、前記対象物認識手段及び/又は前記ジェスチャ認識手段は、センサを用いて、前記対象物が存在する位置及び/又は前記所定のジェスチャが行われた位置を検出する。これにより、カメラによって適切な画像が撮影できないよう場所(例えば暗所など)でも、位置を適切に検出することができる。また、センサを用いることで、位置の検出についての精度及び安定性を向上させることができる。
上記の機器の制御装置の他の一態様では、前記対象物認識手段及び前記ジェスチャ認識手段は、前記対象物の認識及び前記所定のジェスチャの認識を並列して行う。これにより、対象物の認識及び所定のジェスチャの認識に要する処理時間を短縮することができる。
上記の機器の制御装置の他の一態様では、前記対象物認識手段は、前記ジェスチャ認識手段によって前記所定のジェスチャが認識された後に、前記対象物を認識する。好適には、前記対象物認識手段は、前記ジェスチャ認識手段によって認識された前記所定のジェスチャが行われた位置に存在する前記対象物を認識することができる。これにより、対象物の認識は処理量が多くなる傾向にあるため、ジェスチャの認識の後に対象物の認識を行うことで、対象物の認識の処理量を削減することが可能となる。
好適な例では、前記対象物は、絵又は写真で構成されている。例えば、機器の操作に関連した絵や写真を用いることで、ユーザにとって分かり易いジェスチャ操作が可能となる。
また好適な例では、前記所定のジェスチャは、前記対象物を選択するための手によるジェスチャである。
本発明の他の観点では、機器の制御装置によって実行される制御方法は、操作すべき機器に関連付けられた対象物を認識する対象物認識工程と、前記対象物を利用して前記機器を操作するための所定のジェスチャを認識するジェスチャ認識工程と、前記対象物認識工程及び前記ジェスチャ認識工程の認識結果に基づいて、前記所定のジェスチャが行われた前記対象物に関連付けられた前記機器の操作を行う操作工程と、を備える。
本発明の更に他の観点では、コンピュータを有する機器の制御装置によって実行されるプログラムは、前記コンピュータを、操作すべき機器に関連付けられた対象物を認識する対象物認識手段、前記対象物を利用して前記機器を操作するための所定のジェスチャを認識するジェスチャ認識手段、前記対象物認識手段及び前記ジェスチャ認識手段の認識結果に基づいて、前記所定のジェスチャが行われた前記対象物に関連付けられた前記機器の操作を行う操作手段、として機能させる。
上記のプログラムは、記憶媒体に記録した状態で好適に取り扱うことができる。
以下、図面を参照して本発明の好適な実施例について説明する。
[基本動作]
まず、本実施例に係る機器の制御装置の基本動作について簡単に説明する。本実施例では、操作すべき機器(電気機器など)に予め関連付けられた絵を利用して、そのような絵に対するユーザのジェスチャに応じて機器の操作を行う。例えば、操作対象となる種々の機器ごとや機器の種々の操作ごとに、予め関連付けられた複数の絵を用意して、ユーザが所定のジェスチャを行うことで複数の絵の中から絵を選択した場合に、その絵に関連付けられた機器の操作を行う。
まず、本実施例に係る機器の制御装置の基本動作について簡単に説明する。本実施例では、操作すべき機器(電気機器など)に予め関連付けられた絵を利用して、そのような絵に対するユーザのジェスチャに応じて機器の操作を行う。例えば、操作対象となる種々の機器ごとや機器の種々の操作ごとに、予め関連付けられた複数の絵を用意して、ユーザが所定のジェスチャを行うことで複数の絵の中から絵を選択した場合に、その絵に関連付けられた機器の操作を行う。
具体的には、機器の制御装置は、絵やユーザのジェスチャが含まれるような空間をカメラで撮影した画像を取得し、そのような画像に基づいて、絵を認識すると共にユーザのジェスチャを認識することで、ユーザによって所定のジェスチャが行われた絵に関連付けられた機器の操作を行う。この場合、機器の制御装置は、画像を解析することで、機器の操作に予め関連付けられた絵が存在する位置を検出すると共に、所定のジェスチャが行われた位置を検出し、こうして検出された位置に基づいて、所定のジェスチャが行われた位置に存在する絵に関連付けられた機器の操作を行う。
ここで、図1を参照して、具体例を挙げながら本実施例に係る機器の制御装置の基本動作について説明する。
図1(a)は、上記した位置の検出に用いるカメラの設置例を示している。図1(a)に示すように、動画像を撮影可能な4つのカメラ2a〜2d(以下では、これらを区別しない場合には「カメラ2」と表記する。)が部屋の四隅に設置されている。本実施例の1つの例では、このような4つのカメラ2を用いて、絵やユーザのジェスチャが含まれるような空間を撮影し、撮影画像に基づいて、3次元空間上での絵が存在する位置及びジェスチャが行われた位置を検出する。
図1(b)は、操作すべき機器に予め関連付けられた絵(以下では適宜「登録された絵」と呼ぶ。)の具体例を示している。図1(b)では、テレビの操作に関連付けられた絵10a、照明の操作に関連付けられた絵10b、及びエアコンの操作に関連付けられた絵10cを例示している。図示のように、絵10a、10b、10c(以下では、これらを区別しない場合には「絵10」と表記する。)の内容として、テレビ、照明及びエアコンを示すもの(シンボルやマーク)が描かれている。絵10は、紙やプラスチックなどの媒体に印刷されたカード等として構成され、机などの上に載置されて利用される。例えば、絵10a、10b、10cをそれぞれ用いることで、テレビ、照明、エアコンについての電源のオン/オフを切り替える操作を行えるようになっている。
図1(c)は、絵10に対する所定のジェスチャの具体例を示している。ユーザは、絵10を利用して機器を操作すべく、所定のジェスチャとして、操作したい機器に関連付けられた絵10を選択するようなジェスチャを行う(以下では、このようなジェスチャを適宜「選択ジェスチャ」と呼ぶ)。図1(c)では、ユーザが、選択ジェスチャとして、絵10aの上で指差しのジェスチャ(例えば人差し指で絵10aをタッチするようなジェスチャ)を行っている場合を例示している。このような選択ジェスチャが行われた場合、機器の制御装置は、後述する処理を行うことで、ユーザが絵10aに対する選択ジェスチャを行ったものと判断して、絵10aに関連付けられたテレビの操作(例えばテレビの電源をオンにする操作)を行う。
なお、図1(a)では、4つのカメラ2を用いる例を示したが、4つのカメラ2を用いることに限定はされない。5つ以上のカメラ2を用いても良いし、3つ以下のカメラ2を用いても良い。1つのカメラ2のみを用いる場合には、ステレオカメラを用いることが好ましい。
また、図1(b)では、テレビ、照明、エアコンを操作対象の機器として例示したが、これら以外にも種々の機器を操作対象とすることができる。つまり、事前に絵10と関連付けておけば、種々の機器を操作対象とすることができる。ここで、1つの例では、ユーザによって絵10が作成され(例えばユーザの手書きにより絵10が作成されたり、所定の画像をプリンターなどで印刷することで絵10が作成されたりする)、ユーザによって、作成した絵10と機器とを関連付ける処理が行われる。他の例では、絵10は操作対象の機器や機器の制御装置と共に作成され、この段階で絵10と機器とを関連付ける処理が行われる。基本的には、絵10を用いた機器の操作の利便性の観点から、操作対象となる機器が想起されるような内容が描かれた絵10と当該機器とを関連付けることが好適であるが、操作対象となる機器が想起されないような無関係な内容が描かれた絵10と当該機器とを関連付けても構わない。また、絵10は、操作対象の機器だけでなく、その機器の操作内容(電源のオン/オフなど)についても関連付ける処理が行われる。
更に、図1(c)では、選択ジェスチャとして指差しを例示したが、これに限定はされない。指差しの代わりに若しくは指差しに加えて、手で絵10を1回若しくは数回たたくようなジェスチャを選択ジェスチャとして用いても良い。
[装置構成]
次に、図2を参照して、本実施例に係る機器の制御装置1の構成について説明する。図2は、本実施例に係る機器の制御装置1が適用されたシステムの概略構成を示す。
次に、図2を参照して、本実施例に係る機器の制御装置1の構成について説明する。図2は、本実施例に係る機器の制御装置1が適用されたシステムの概略構成を示す。
本実施例では、機器の制御装置1は、前述したようなカメラ2の撮影画像(以下、適宜「入力画像」と呼ぶ。)が入力され、入力画像に基づいて機器3を操作するように機能する。1つの例では、機器の制御装置1は、機器3とは別個のもの(例えば専用のボックスなどに収納された電子機器など)として構成される。この例は、好適には、操作対象の機器3が複数存在する場合に適用される。他の例では、機器の制御装置1は、操作対象となっている機器3と一体に構成される、つまり当該機器3に組み込まれる。この例は、好適には、操作対象の機器3が1つのみである場合に適用される。
図2に示すように、機器の制御装置1は、主に、絵認識部11、ジェスチャ認識部12及び操作部13を有する。機器の制御装置1は、例えばマイクロコンピュータなどによって実現される。なお、絵認識部11は本発明における「対象物認識手段」の一例であり、ジェスチャ認識部12は本発明における「ジェスチャ認識手段」の一例であり、操作部13は本発明における「操作手段」の一例である。
絵認識部11は、入力画像を解析することで、カメラ2によって撮影された空間(以下、「撮影空間」と呼ぶ。)に存在する、登録された絵10(つまり操作対象となっている機器3に予め関連付けられた絵10)を認識する。具体的には、絵認識部11は、画像解析により、撮影空間に存在する1以上の絵10を認識して、認識された1以上の絵10が存在する位置を検出する。この場合、絵認識部11は、絵10を認識するための画像解析に必要な、複数の絵10に関する情報(例えば複数の絵10ごとのテンプレートなど)を予め記憶しており、記憶された情報を用いて処理を行う。
1つの例では、絵認識部11は、入力画像としての動画像から、SIFTやエッジやコーナーなどの画像特徴量を抽出し、抽出された画像特徴量を用いてマッチングを行うことで、撮影空間に存在する絵10を認識する。他の例では、絵認識部11は、入力画像としての動画像に対してテンプレートマッチングを行うことで、つまり登録された絵10に対応するテンプレートによるマッチングを行うことで、撮影空間に存在する絵10を認識する。更に他の例では、絵認識部11は、絵10をコード化しておき、入力画像としての動画像に対してAR Toolkit(Augmented Reality Toolkit)や2次元バーコード等の手法を適用することで、撮影空間に存在するコード化された絵10を認識する。
絵認識部11は、以上のようにして認識された絵10について、当該絵10が存在する位置(3次元空間上の位置)に関する情報を、操作部13に供給する。絵認識部11は、撮影空間において2以上の絵10が認識された場合には、2以上の絵10についての位置に関する情報を操作部13に供給する。
ジェスチャ認識部12は、入力画像を解析することで、撮影空間で行われたユーザの選択ジェスチャ(つまり、操作したい機器に関連付けられた絵10を選択するようなジェスチャ)を認識する。具体的には、ジェスチャ認識部12は、画像解析により、撮影空間で行われた1以上の選択ジェスチャを認識して、認識された1以上の選択ジェスチャが行われた位置を検出する。この場合、ジェスチャ認識部12は、選択ジェスチャを認識するための画像解析に必要な、選択ジェスチャに関する情報を予め記憶しており、記憶された情報を用いて処理を行う。
1つの例では、ジェスチャ認識部12は、入力画像としての動画像から、周期的に動作する箇所を検出し、その箇所を選択ジェスチャが行われた位置として検出する。他の例では、ジェスチャ認識部12は、入力画像としての動画像から、機械学習により選択ジェスチャを認識し、認識された選択ジェスチャが行われた位置を検出する。この2つの例は、好適には、手でたたくような選択ジェスチャに適用され、ジェスチャ認識部12は、手でタッチされた場所の位置を検出する。更に他の例では、ジェスチャ認識部12は、入力画像としての動画像から、指差しが行われている箇所を検出し、その箇所を選択ジェスチャが行われた位置として検出する。この例では、ジェスチャ認識部12は、指差しが一定時間行われているか否かを判定し、指差しが一定時間行われている場合に、指差しが行われている指先の位置を検出する。
ジェスチャ認識部12は、以上のようにして検出された、選択ジェスチャが行われた位置(3次元空間上の位置)に関する情報を、操作部13に供給する。ジェスチャ認識部12は、撮影空間において2以上の選択ジェスチャが認識された場合には、2以上の選択ジェスチャについての位置に関する情報を操作部13に供給する。
操作部13は、絵認識部11によって検出された絵10の位置に関する情報、及び、ジェスチャ認識部12によって検出された選択ジェスチャの位置に関する情報を取得して、これらの検出位置を比較する。具体的には、操作部13は、絵認識部11によって検出された絵10の位置と、ジェスチャ認識部12によって検出された選択ジェスチャの位置とが概ね一致するか否かを判定する(例えば位置座標の差分が所定値以下であるか否かを判定する)。こうすることで、操作部13は、ユーザによる選択ジェスチャが、登録された絵10に対して行われたものであるか否かを判定している。操作部13は、ジェスチャ認識部12によって検出された選択ジェスチャの位置が、絵認識部11によって検出された絵10の位置に概ね一致する場合には、選択ジェスチャが絵10に対して行われたものであると判定する。この場合には、操作部13は、その絵10に関連付けられた機器3を操作すべく、機器3に対して操作信号を供給する。
なお、絵認識部11によって2以上の絵10の位置が検出された場合、又はジェスチャ認識部12によって2以上の選択ジェスチャの位置が検出された場合には、操作部13は、2以上の絵10の位置と1つの選択ジェスチャの位置とを比較したり、1つの絵10の位置と2以上の選択ジェスチャの位置とを比較したりする。また、絵認識部11によって2以上の絵10の位置が検出され、且つ、ジェスチャ認識部12によって2以上の選択ジェスチャの位置が検出された場合には、操作部13は、2以上の絵10の位置と2以上の選択ジェスチャの位置とをそれぞれ比較する。その結果、2以上の選択ジェスチャの位置が2以上の絵10の位置に概ね一致する場合には、操作部13は、当該2以上の絵10に関連付けられた複数の操作を行わせる。
[処理フロー]
次に、図3を参照して、本実施例に係る処理フローについて説明する。当該処理フローは、機器の制御装置1によって繰り返し実行される。
次に、図3を参照して、本実施例に係る処理フローについて説明する。当該処理フローは、機器の制御装置1によって繰り返し実行される。
まず、ステップS101では、機器の制御装置1内の絵認識部11及びジェスチャ認識部12が、カメラ2によって撮影された画像(入力画像)を取得する。この後、絵認識部11及びジェスチャ認識部12によって入力画像に対する処理が並列して行われる。具体的には、ジェスチャ認識部12によるステップS102、S103の処理と、絵認識部11によるステップS104及びS105の処理とが並列して行われる。
最初に、ジェスチャ認識部12によるステップS102、S103の処理について説明する。ステップS102では、ジェスチャ認識部12は、[装置構成]のセクションで述べたような方法によって入力画像を解析することで、撮影空間で行われている選択ジェスチャを認識する。そして、ステップS103では、ジェスチャ認識部12は、ステップS102の認識結果に基づいて、撮影空間で選択ジェスチャが行われているか否かを判定する。選択ジェスチャが行われている場合(ステップS103:Yes)、処理はステップS106に進む。この場合には、ジェスチャ認識部12は、認識された選択ジェスチャの位置に関する情報を操作部13に供給する。他方で、選択ジェスチャが行われていない場合(ステップS103:No)、処理はステップS101に戻る。
次に、絵認識部11によるステップS104及びS105の処理について説明する。ステップS104では、絵認識部11は、[装置構成]のセクションで述べたような方法によって入力画像を解析することで、撮影空間に存在する、登録された絵10を認識する。そして、ステップS105では、絵認識部11は、ステップS104の認識結果に基づいて、登録された絵10が撮影空間に存在するか否かを判定する。登録された絵10が撮影空間に存在する場合(ステップS105:Yes)、処理はステップS106に進む。この場合には、絵認識部11は、認識された絵10の位置に関する情報を操作部13に供給する。これに対して、登録された絵10が撮影空間に存在しない場合(ステップS105:No)、処理はステップS101に戻る。
次に、ステップ106では、操作部13は、ユーザによる選択ジェスチャが、登録された絵10に対して行われたものであるか否かを判定する。具体的には、操作部13は、絵認識部11によって検出された絵10の位置と、ジェスチャ認識部12によって検出された選択ジェスチャの位置とを比較することで、当該判定を行う。操作部13は、選択ジェスチャの位置が絵10の位置に概ね一致する場合には、選択ジェスチャが絵10に対して行われたものであると判定する(ステップS106:Yes)。この場合には、操作部13は、その絵10に関連付けられた機器3の操作を行う(ステップS107)。そして、処理は終了する。
これに対して、選択ジェスチャの位置が絵10の位置に概ね一致しない場合には、操作部13は、選択ジェスチャが絵10に対して行われたものでないと判定する(ステップS106:No)。この場合には、処理はステップS101に戻る。
[本実施例の作用・効果]
以上説明したように、本実施例によれば、ユーザは、登録された絵10に対してジェスチャを行うことで、その絵10に関連付けられた機器3の操作を行うことができる。このように絵10とジェスチャとを組み合わせることで、複雑な操作を簡易なジェスチャで実現することができる。加えて、操作に関連した絵10を用いることで、ユーザにとって分かり易いジェスチャ操作が可能となる。
以上説明したように、本実施例によれば、ユーザは、登録された絵10に対してジェスチャを行うことで、その絵10に関連付けられた機器3の操作を行うことができる。このように絵10とジェスチャとを組み合わせることで、複雑な操作を簡易なジェスチャで実現することができる。加えて、操作に関連した絵10を用いることで、ユーザにとって分かり易いジェスチャ操作が可能となる。
また、本実施例によれば、ユーザは、絵10を目標にしてジェスチャを行うことができるため、ジェスチャを行うべき位置を容易に把握することができる。また、本実施例によれば、使用する絵10を入れ替えることで(例えば絵10をファイリングし、使用する絵10を手前に持ってくることで)、ユーザは、複雑なジェスチャを覚えることなく、簡易なジェスチャにより種々の操作を実現させることができる。更に、本実施例によれば、操作のためのジェスチャを行う位置は特定の場所に限定されず、絵10がある場所であれば種々の場所でジェスチャを行うことができる。
以上より、本実施例によれば、ユーザにとって分かり易く且つ簡便なジェスチャによって、機器3に対する種々の操作や、種々の機器3に対する操作を適切に行うことが可能となる。
[変形例]
以下では、上記の実施例に好適な変形例について説明する。なお、下記の変形例は、任意に組み合わせて上述の実施例に適用することができる。
以下では、上記の実施例に好適な変形例について説明する。なお、下記の変形例は、任意に組み合わせて上述の実施例に適用することができる。
(変形例1)
変形例1は、絵10に再帰性反射材を塗布し、カメラ2の近傍に光源を配置するものである。こうすることで、光源からの光が絵10に塗布された再帰性反射材で反射し、反射された光がカメラ2で撮影されることとなる。これにより、カメラ2の撮影画像において比較的強い光の部分が絵10の箇所であると特定できるため、絵10の認識を容易に行うことが可能となる。
変形例1は、絵10に再帰性反射材を塗布し、カメラ2の近傍に光源を配置するものである。こうすることで、光源からの光が絵10に塗布された再帰性反射材で反射し、反射された光がカメラ2で撮影されることとなる。これにより、カメラ2の撮影画像において比較的強い光の部分が絵10の箇所であると特定できるため、絵10の認識を容易に行うことが可能となる。
上記のように再帰性反射材を塗布した絵10を用いる場合には、赤外光と赤外カメラとを用いることが好適である。こうした場合には、撮影される側からは光が見えないため、照らされていることに気付かせないことができる。
更に好適には、再帰性反射材を含む顔料などで絵10の内容を描くと良い。これにより、絵10の認識を更に容易に行うことが可能となる。
(変形例2)
上記では、絵10を利用した機器3の操作として、機器3の電源のオン・オフを切り替えるものを例示したが、機器3の操作はこれに限定されない。変形例2は、絵10を利用して、機器3の具体的な動作に関する操作を行うものである。例えば、機器3の動作に関する操作としては、テレビのチャンネルの切り替えや音量調整、エアコンの温度調整や風量調整や風向調整などが挙げられる。
上記では、絵10を利用した機器3の操作として、機器3の電源のオン・オフを切り替えるものを例示したが、機器3の操作はこれに限定されない。変形例2は、絵10を利用して、機器3の具体的な動作に関する操作を行うものである。例えば、機器3の動作に関する操作としては、テレビのチャンネルの切り替えや音量調整、エアコンの温度調整や風量調整や風向調整などが挙げられる。
図4は、変形例2に係る絵10(絵10d、10e、10f)の具体例を示している。図4(a)は、テレビなどの音量調整といった操作に関連付けられた絵10d、10eを例示している。具体的には、絵10dは、音量を上げるといった操作に関連付けられたものであり、絵10eは、音量を下げるといった操作に関連付けられたものである。
図4(b)も、テレビなどの音量調整といった操作に関連付けられた絵10fを例示している。絵10fは、1枚で、種々の音量に調整できるようになっている。具体的には、絵10fは、選択ジェスチャにて絵10fがタッチされた位置(詳しくは絵10fにおいて音量を示す箇所に対してタッチされた位置)に応じた音量に調整できるようになっている。このような絵10fを用いた場合には、機器の制御装置1は、上記したような方法により、選択ジェスチャが絵10fに対して行われたものであると判定した際に、選択ジェスチャにて絵10fがタッチされた位置を特定して、当該位置に応じた音量に機器3を操作する。
(変形例3)
上記した実施例では、絵10の認識及び選択ジェスチャの認識を並列して行っていたが(図2及び図3参照)、これに限定はされない。変形例3は、絵10の認識及び選択ジェスチャの認識を並列して行う代わりに、選択ジェスチャの認識及び絵10の認識を順番に行うものである。なお、以下では、上記した実施例と区別するために、説明の便宜上、変形例3において絵10の認識を行う処理部を「絵認識部11a」と表記し、変形例3において選択ジェスチャの認識を行う処理部を「ジェスチャ認識部12a」と表記する。
上記した実施例では、絵10の認識及び選択ジェスチャの認識を並列して行っていたが(図2及び図3参照)、これに限定はされない。変形例3は、絵10の認識及び選択ジェスチャの認識を並列して行う代わりに、選択ジェスチャの認識及び絵10の認識を順番に行うものである。なお、以下では、上記した実施例と区別するために、説明の便宜上、変形例3において絵10の認識を行う処理部を「絵認識部11a」と表記し、変形例3において選択ジェスチャの認識を行う処理部を「ジェスチャ認識部12a」と表記する。
具体的には、変形例3では、絵認識部11aは、ジェスチャ認識部12aによって選択ジェスチャが認識された後に、絵10を認識する。より詳しくは、絵認識部11aは、ジェスチャ認識部12aによって認識された選択ジェスチャが行われた位置についてのみ、絵10を認識する処理を行う。
図5は、変形例3に係る処理フローを示している。まず、ステップS201では、ジェスチャ認識部12aが、カメラ2によって撮影された画像(入力画像)を取得する。そして、ジェスチャ認識部12aは、[装置構成]のセクションで述べたような方法によって入力画像を解析することで、撮影空間で行われている選択ジェスチャを認識する(ステップS202)。次に、ジェスチャ認識部12aは、ステップS202の認識結果に基づいて、撮影空間で選択ジェスチャが行われているか否かを判定する(ステップS203)。選択ジェスチャが行われている場合(ステップS203:Yes)、処理はステップS204に進む。この場合には、ジェスチャ認識部12aは、認識された選択ジェスチャの位置に関する情報を絵認識部11aに供給する。他方で、選択ジェスチャが行われていない場合(ステップS203:No)、処理はステップS201に戻る。
次に、ステップS203では、絵認識部11aは、ジェスチャ認識部12aによって認識された選択ジェスチャが行われた位置に存在する絵10を認識する。この場合、絵認識部11aは、[装置構成]のセクションで述べたような方法によって入力画像を解析することで、登録された絵10を認識する。そして、絵認識部11aは、ステップS204の認識結果に基づいて、登録された絵10が選択ジェスチャの位置に存在するか否かを判定する(ステップS205)。登録された絵10が存在する場合(ステップS205:Yes)、処理はステップS206に進む。この場合には、操作部13は、認識された絵10に関連付けられた機器3の操作を行う(ステップS206)。そして、処理は終了する。これに対して、登録された絵10が選択ジェスチャの位置に存在しない場合(ステップS205:No)、処理はステップS201に戻る。
なお、上記では、ジェスチャ認識部12aの処理の後に絵認識部11aが処理を行う例を示したが、この代わりに、絵認識部11aの処理の後にジェスチャ認識部12aが処理を行うこととしても良い。この場合には、ジェスチャ認識部12aは、絵認識部11aによって認識された絵10が存在する位置についてのみ、選択ジェスチャを認識する処理を行えば良い。
以上説明した変形例3は、絵認識部11a及びジェスチャ認識部12aのどちらかの処理量が多い場合に、処理量の削減に有効となる。特に、絵10の認識は処理量が多くなる傾向にあるため、ジェスチャ認識部12aの処理の後に絵認識部11aが処理を行うことは有効であると言える。
(変形例4)
上記では、カメラ2によって撮影された画像に基づいて、絵10の位置や選択ジェスチャの位置を検出する実施例を示したが、これに限定はされない。変形例4は、センサを用いて、絵10の位置や選択ジェスチャの位置を検出するものである。
上記では、カメラ2によって撮影された画像に基づいて、絵10の位置や選択ジェスチャの位置を検出する実施例を示したが、これに限定はされない。変形例4は、センサを用いて、絵10の位置や選択ジェスチャの位置を検出するものである。
絵10の位置の検出としては、1つの例では、絵10にRF(Radio Frequency)タグを付しておくことで、RFID(Radio Frequency Identification)の手法を用いて、絵10を認識せずに、絵10の位置を検出することができる。この例では、複数の絵10ごとに固有のID情報を埋め込んだRFタグを付しておけば、各絵10の位置と、各絵10の内容(つまり各絵10に関連付けられた操作内容)とを同時に把握することができる。他の例では、絵10に磁場(磁界)を生じさせる物体を付しておくことで、磁気センサなどによって、絵10を認識せずに、絵10の位置を検出することができる。
他方で、選択ジェスチャの位置の検出については、距離画像センサや位置センサなどを用いることができる。距離画像センサを用いた場合には、1つのカメラ2のみで、選択ジェスチャが行われた3次元位置を検出することができる。また、位置センサとしては、例えば、自身の位置に関する情報を機器の制御装置1に送信すると共に、ユーザの指などに装着可能に構成されたセンサを用いることができる。これにより、ユーザが当該センサを装着した状態で指差しを行った場合に、その指差しの位置を適切に検出することができる。
以上説明した変形例4によれば、カメラ2によって撮影された画像を用いずに、位置を適切に検出することができる。よって、カメラ2によって適切な画像が撮影できないよう場所(例えば暗所など)でも、位置を適切に検出することができる。また、センサを用いることで、位置の検出についての精度及び安定性を向上させることができる。
(変形例5)
上記では、本発明を絵10に適用する例を示したが、本発明は、絵10以外にも、写真や3次元物体などにも適用することができる。つまり、機器3を操作するために利用する「対象物」として、写真や3次元物体などの現実世界に存在する種々のものを用いることができる。
上記では、本発明を絵10に適用する例を示したが、本発明は、絵10以外にも、写真や3次元物体などにも適用することができる。つまり、機器3を操作するために利用する「対象物」として、写真や3次元物体などの現実世界に存在する種々のものを用いることができる。
[適用例]
本発明は、テレビやホームAVなどの家電や、車載用のナビゲーション装置などに、ジェスチャ操作インタフェースとして好適に適用することができる。
本発明は、テレビやホームAVなどの家電や、車載用のナビゲーション装置などに、ジェスチャ操作インタフェースとして好適に適用することができる。
1 機器の制御装置
2 カメラ
3 機器
10 絵
11 絵認識部
12 ジェスチャ認識部
13 操作部
2 カメラ
3 機器
10 絵
11 絵認識部
12 ジェスチャ認識部
13 操作部
Claims (13)
- 操作すべき機器に関連付けられた対象物を認識する対象物認識手段と、
前記対象物を利用して前記機器を操作するための所定のジェスチャを認識するジェスチャ認識手段と、
前記対象物認識手段及び前記ジェスチャ認識手段の認識結果に基づいて、前記所定のジェスチャが行われた前記対象物に関連付けられた前記機器の操作を行う操作手段と、を備えることを特徴とする機器の制御装置。 - 前記対象物認識手段は、前記対象物が存在する位置を検出し、
前記ジェスチャ認識手段は、前記所定のジェスチャが行われた位置を検出し、
前記操作手段は、前記対象物認識手段及び前記ジェスチャ認識手段が検出した位置に基づいて、前記所定のジェスチャが行われた位置に存在する前記対象物に関連付けられた前記機器の操作を行うことを特徴とする請求項1に記載の機器の制御装置。 - 前記対象物及び前記所定のジェスチャが少なくとも含まれる空間をカメラで撮影した画像を取得する手段を更に備え、
前記対象物認識手段は、前記画像を解析することで、前記空間に存在する前記対象物を認識して、当該対象物の位置を検出し、
前記ジェスチャ認識手段は、前記画像を解析することで、前記空間で行われた前記所定のジェスチャを認識して、当該ジェスチャが行われた位置を検出することを特徴とする請求項2に記載の機器の制御装置。 - 前記対象物は、再帰性反射材が塗布され、
前記カメラは、その近傍に光源が設けられており、
前記対象物認識手段は、前記再帰性反射材で反射された光に対応する画像に基づいて、前記対象物を認識することを特徴とする請求項3に記載の機器の制御装置。 - 前記対象物認識手段及び/又は前記ジェスチャ認識手段は、センサを用いて、前記対象物が存在する位置及び/又は前記所定のジェスチャが行われた位置を検出することを特徴とする請求項2に記載の機器の制御装置。
- 前記対象物認識手段及び前記ジェスチャ認識手段は、前記対象物の認識及び前記所定のジェスチャの認識を並列して行うことを特徴とする請求項1乃至5のいずれか一項に記載の機器の制御装置。
- 前記対象物認識手段は、前記ジェスチャ認識手段によって前記所定のジェスチャが認識された後に、前記対象物を認識することを特徴とする請求項1乃至5のいずれか一項に記載の機器の制御装置。
- 前記対象物認識手段は、前記ジェスチャ認識手段によって認識された前記所定のジェスチャが行われた位置に存在する前記対象物を認識することを特徴とする請求項7に記載の機器の制御装置。
- 前記対象物は、絵又は写真で構成されていることを特徴とする請求項1乃至8のいずれか一項に記載の機器の制御装置。
- 前記所定のジェスチャは、前記対象物を選択するための手によるジェスチャであることを特徴とする請求項1乃至9のいずれか一項に記載の機器の制御装置。
- 機器の制御装置によって実行される制御方法であって、
操作すべき機器に関連付けられた対象物を認識する対象物認識工程と、
前記対象物を利用して前記機器を操作するための所定のジェスチャを認識するジェスチャ認識工程と、
前記対象物認識工程及び前記ジェスチャ認識工程の認識結果に基づいて、前記所定のジェスチャが行われた前記対象物に関連付けられた前記機器の操作を行う操作工程と、を備えることを特徴とする制御方法。 - コンピュータを有する機器の制御装置によって実行されるプログラムであって、
前記コンピュータを、
操作すべき機器に関連付けられた対象物を認識する対象物認識手段、
前記対象物を利用して前記機器を操作するための所定のジェスチャを認識するジェスチャ認識手段、
前記対象物認識手段及び前記ジェスチャ認識手段の認識結果に基づいて、前記所定のジェスチャが行われた前記対象物に関連付けられた前記機器の操作を行う操作手段、として機能させることを特徴とするプログラム。 - 請求項12に記載のプログラムを記憶したことを特徴とする記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012041485A JP2013178631A (ja) | 2012-02-28 | 2012-02-28 | 機器の制御装置、制御方法、プログラム及び記憶媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012041485A JP2013178631A (ja) | 2012-02-28 | 2012-02-28 | 機器の制御装置、制御方法、プログラム及び記憶媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013178631A true JP2013178631A (ja) | 2013-09-09 |
Family
ID=49270214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012041485A Pending JP2013178631A (ja) | 2012-02-28 | 2012-02-28 | 機器の制御装置、制御方法、プログラム及び記憶媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013178631A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020187764A (ja) * | 2015-11-11 | 2020-11-19 | ソニー株式会社 | クライアントおよびプログラム |
-
2012
- 2012-02-28 JP JP2012041485A patent/JP2013178631A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020187764A (ja) * | 2015-11-11 | 2020-11-19 | ソニー株式会社 | クライアントおよびプログラム |
US11449148B2 (en) | 2015-11-11 | 2022-09-20 | Sony Corporation | Communication system, server, storage medium, and communication control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8605189B2 (en) | Product identification using mobile device | |
JP6392991B2 (ja) | 画像による空間パラメータ特定方法、装置、プログラム、記録媒体および端末機器 | |
EP3128731A1 (en) | Mobile terminal and method for controlling the same | |
US20140009494A1 (en) | Display control device, display control method, and program | |
JP2007116270A5 (ja) | ||
US8964259B2 (en) | Image processing apparatus, image reading apparatus, image processing method, and image processing program | |
US20140092291A1 (en) | Image display control apparatus, image display apparatus, non-transitory computer readable medium, and image display control method | |
JP6349800B2 (ja) | ジェスチャ認識装置およびジェスチャ認識装置の制御方法 | |
US9870191B2 (en) | Display device, displaying method, and computer-readable recording medium | |
US9030500B2 (en) | Object sharing system and non-transitory computer readable medium storing object input assistance program | |
US10176552B2 (en) | Non-transitory computer-readable storage medium, image display method, and image processing system for associating the same object in different images | |
US9173066B1 (en) | Methods and systems for controlling an electronic device | |
WO2015159774A1 (ja) | 入力装置、入力装置の制御方法 | |
US9049398B1 (en) | Synchronizing physical and electronic copies of media using electronic bookmarks | |
KR20130037430A (ko) | 모바일기기 및 그 제어방법 | |
US8866953B2 (en) | Mobile device and method for controlling the same | |
JP6739937B2 (ja) | 情報処理装置、情報処理装置の制御方法、及びプログラム | |
US8704939B1 (en) | Mobile device and method for controlling the same | |
JP5773003B2 (ja) | 表示制御装置、表示制御方法及びプログラム | |
JP4871226B2 (ja) | 認識装置および認識方法 | |
US20150138077A1 (en) | Display system and display controll device | |
KR20160072306A (ko) | 스마트 펜 기반의 콘텐츠 증강 방법 및 시스템 | |
JP2013178631A (ja) | 機器の制御装置、制御方法、プログラム及び記憶媒体 | |
US20170294157A1 (en) | Image display device | |
KR101585245B1 (ko) | 이미지 처리 방법 및 이를 적용한 이미지 표시 장치 |