JP6104143B2 - 機器制御システム、および、機器制御方法 - Google Patents

機器制御システム、および、機器制御方法 Download PDF

Info

Publication number
JP6104143B2
JP6104143B2 JP2013254284A JP2013254284A JP6104143B2 JP 6104143 B2 JP6104143 B2 JP 6104143B2 JP 2013254284 A JP2013254284 A JP 2013254284A JP 2013254284 A JP2013254284 A JP 2013254284A JP 6104143 B2 JP6104143 B2 JP 6104143B2
Authority
JP
Japan
Prior art keywords
image
unit
captured
operation terminal
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013254284A
Other languages
English (en)
Other versions
JP2015115649A (ja
Inventor
直之 樋原
直之 樋原
吉秋 小泉
吉秋 小泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013254284A priority Critical patent/JP6104143B2/ja
Publication of JP2015115649A publication Critical patent/JP2015115649A/ja
Application granted granted Critical
Publication of JP6104143B2 publication Critical patent/JP6104143B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Selective Calling Equipment (AREA)

Description

本発明は、機器を制御する機器制御システム、および、機器制御方法に関する。
従来より、撮影された映像(画像)に付加的な情報(キャラクタ画像やメッセージ等)を重畳してユーザに呈示する拡張現実(AR:Augmented Reality)と呼ばれる技術が提案されている。この拡張現実は、様々な分野に応用され、研究がなされている。例えば、特許文献1には、拡張現実を利用した情報家電操作システムが開示されている。
特許文献1の情報家電操作システムでは、機器(情報家電)がマーカ(点滅発光機構)を備えており、操作側(リモコン等)が、機器のマーカを含む画像データを取得して、この画像データのマーカ(点滅状態)を解析することにより機器を識別する。そして、操作側は、識別した機器を操作するための操作インタフェースを画像データに合成して表示する。
特開2013−77177号公報
上述した特許文献1の情報家電操作システムでは、制御対象となる機器がマーカを備えている必要があり、マーカを備えていない既存の機器を制御することができなかった。また、機器にマーカを付加することで、構成がより複雑になってしまうという問題があった。
そのため、マーカ等を用いることなく、より簡易な構成で、機器を制御できる技術が求められていた。
本発明は、上記のような問題点を解決するためになされたもので、より簡易な構成で機器を制御できる機器制御システム、および、機器制御方法を提供することを目的とする。
上記目的を達成するために、本発明に係る機器制御システムは、
制御対象となる機器と、当該機器と通信可能に接続された機器管理装置と、当該機器管理装置と通信可能に接続された操作端末とを有する機器制御システムであって、
前記操作端末の位置を検出する位置検出部と、
前記操作端末から前記機器を含む実空間を撮影する撮影部と、
前記撮影部が撮影した撮影画像から前記機器を示す機器画像を認識し、当該撮影画像中における当該機器画像の位置を解析する画像解析部と、
前記操作端末の撮影方向を求めるセンサと、
前記機器の位置を含む機器情報を予め記憶する機器情報記憶部と、
前記位置検出部が検出した前記操作端末の位置、前記センサが求めた前記操作端末の撮影方向、及び、前記画像解析部が解析した撮影画像中における機器画像の位置に基づいて、前記機器を前記機器情報記憶部に記憶される機器情報に対応付ける機器識別部と、
前記機器識別部が対応付けた機器情報に基づいて生成したユーザインタフェース画像を、前記撮影部が撮影した撮影画像に合成して表示する表示部と、を備え、
前記機器識別部は、前記撮影部が撮影した撮影画像中で相対的に大きく撮像された機器画像についてだけ、前記位置検出部が検出した前記操作端末の位置と、前記撮影部が撮影した撮影画像中の機器画像の画像の位置とを結ぶ直線の方程式を求め、当該直線の方程式に基づいて、前記機器を前記機器情報記憶部に記憶される機器情報に対応付けると共に、撮影画像中の残りの機器画像について、撮影画像中における機器画像同士の相対配置と、前記機器情報記憶部に記憶される機器情報における前記機器同士の相対配置とに基づいて、残りの機器を前記機器情報記憶部に記憶される機器情報に対応付ける。
本発明によれば、より簡易な構成で機器を制御することができる。
本発明の実施形態に係る機器制御システムの全体構成の一例を示すブロック図である。 機器管理装置の構成の一例を示すブロック図である。 機器情報記憶部に記憶される情報の一例を示す模式図である。 操作端末の構成の一例を示すブロック図である。 照明機器が含まれる撮影画像の一例を示す模式図である。 照明機器を認識する様子を説明するための模式図である。 対応付ける機器を求める様子を説明するための模式図である。 ユーザインタフェース画像が合成された撮影画像の一例を示す模式図である。 (a),(b)共に、ユーザインタフェース画像の一例を示す模式図である。 本発明の実施形態に係る機器制御処理の一例を示すフローチャートである。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。なお、図中同一又は相当部分には同一符号を付す。
図1は、本発明の実施形態に係る機器制御システム1の構成の一例を示すブロック図である。この機器制御システム1は、制御対象となる各機器4を、ユーザによる操作端末3からの操作で機器管理装置2を介して制御するシステムである。以下では、機器制御システム1が、オフィスビル等に配置される場合を一例として説明するが、後述するように、家庭の住居等に配置される場合も適宜適用可能である。
機器制御システム1は、例えば、同種の機器4が複数配置されるオフィスビル等に適用される。この機器制御システム1は、機器管理装置2と、操作端末3と、複数の機器4とから構成される。なお、操作端末3と機器管理装置2とは、例えば、無線通信ネットワーク8を介して通信可能に接続されており、また、機器管理装置2と各機器4とは、例えば、有線通信ネットワーク9を介して通信可能に接続されている。
機器管理装置2は、各機器4を管理すると共に、操作端末3との間で必要な情報のやり取りを行う。
例えば、機器管理装置2は、図2に示すように、機器情報記憶部21と、端末位置検出部22と、通信部23と、制御部24とから構成される。
機器情報記憶部21は、各機器4に関する種々の情報を記憶している。
例えば、機器情報記憶部21は、図3に示すような機器情報211を記憶している。この機器情報211には、機器ID211a、機器名称211b、位置情報211c、アドレス211d、及び、状態211e等が含まれている。
機器ID211aは、機器4を識別するための情報である。また、機器名称211bは、機器4の名称であり、ユーザ等によって適宜設定可能となっている。
位置情報211cは、機器4が配置された実空間の三次元位置(例えば、ビル内における三次元位置)を示しており、予め計測された値が設定されている。なお、三次元位置における高さ情報については、各機器4が典型的に設置される高さ(例えば、照明機器やビルトインエアコンであれば天井の高さ、また、リモコン等であれば操作器が設置される典型的高さ)を、高さ情報として自動的に設定するようにしてもよい。
アドレス211dは、機器4との通信時に使用する情報である。また、状態211eは、機器4から取得された現在の状態を示す情報である。
また、機器情報記憶部21は、各機器4のテンプレート画像も記憶する。このテンプレート画像は、例えば、機器4の外観の特徴箇所(特定パターン)を表す画像であり、操作端末3(後述する画像解析部36)に用いられる。なお、テンプレート画像の詳細は、後述する画像解析部36と共に説明する。
図2に戻って、端末位置検出部22は、操作端末3の実空間における三次元位置(例えば、ビル内における三次元位置)を検出する。
例えば、端末位置検出部22は、屋内GPSや、無線LANによる屋内位置検出など公知の屋内端末位置検出技術を利用して、操作端末3の位置を検出する。なお、検出した操作端末3の位置を示す位置データは、順次、操作端末3に送信される。
通信部23は、無線及び有線の通信ユニットからなり、操作端末3及び各機器4と通信する。
例えば、通信部23は、無線通信ネットワーク8を介して操作端末3と通信し、また、有線通信ネットワーク9を介して各機器4と通信する。
制御部24は、機器管理装置2全体を制御する。例えば、制御部24は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等から構成される。制御部24は、ROM等に格納されたプログラムをRAMに読み出して、CPUが実行することにより、上述した機器情報記憶部21、端末位置検出部22、及び、通信部23を制御する。
図1に戻って、操作端末3は、例えば、タブレット端末やスマートフォンなどの携帯端末からなり、ビル内でユーザに使用される。
以下、操作端末3の詳細を、図4のブロック図を参照して説明する。図示するように、操作端末3は、入力部30と、撮影部31と、画像合成部32と、表示部33と、方位センサ34と、姿勢センサ35と、画像解析部36と、機器識別部37と、通信部38と、制御部39と、を備える。
入力部30は、例えば、タッチパネルやタッチパッド等から構成され、ユーザからの操作入力を受け付ける。例えば、入力部30としてタッチパネルを採用する場合、静電容量の変化を検出する透明な平板状の静電容量センサが、液晶表示器に重ねて実装される。この静電容量センサにより、ユーザの指先や専用のペンなどによるタッチ面(ユーザにとっては液晶表示器の表示画面)の接触(押圧)が検出されると、その位置の情報(座標データ)が制御部39に出力される。制御部39は、その位置情報に基づいて、ユーザの操作内容を判別する。ユーザが入力部30を介して入力操作を行うと、その操作内容に応じた信号が制御部39に供給される。
撮影部31は、例えば、レンズや撮像素子(一例として、CCD;Charge Coupled Device)等から構成され、操作端末3が撮影モードになると、実空間の画像(例えば、ビル内の画像)を撮影する。撮影部31は、撮影によって生成した画像(撮影画像)を、制御部39に供給する。
一例として、ユーザがビル内の天井に撮影部31の光軸を向けた状態で、操作端末3を撮影モードにすると、撮影部31は、図5に示すような複数の照明機器FLを含んだ撮影画像を生成し制御部39に供給する。なお、撮影モード中において、撮影部31は、このような撮影画像を順次生成して制御部39に供給する。
図4に戻って、画像合成部32は、撮影部31が撮影した撮影画像に、ユーザインタフェース画像を合成する。なお、ユーザインタフェース画像やその合成についての詳細は、後述する制御部39と共に説明する。
表示部33は、例えば、液晶表示器等からなり、撮影部31が撮影した撮影画像等を表示する。
一例として、表示部33は、上述した図5の撮影画像を表示する。なお、後述するように、表示部33は、ユーザインタフェース画像が合成された撮影画像も表示する。
方位センサ34は、例えば、磁気センサ等からなり、ユーザに保持される操作端末3の方位を検出する。
一例として、方位センサ34は、操作端末3の裏面(例えば、撮影部31が配置されている面)を基準とした現在の方位を検出する。方位センサ34は、検出した方位を示す方位データを制御部39に供給する。
姿勢センサ35は、例えば、3軸の加速度センサ等からなり、ユーザに保持される操作端末3の姿勢を検出する。
一例として、姿勢センサ35は、操作端末3の正面(例えば、表示部33が配置されている面)を表にして水平に静置された状態を基準姿勢とし、各軸の重力加速度から、操作端末3の現在の姿勢を検出する。姿勢センサ35は、検出した姿勢を示す姿勢データを制御部39に供給する。
なお、制御部39は、方位センサ34が検出した方位と、姿勢センサ35が検出した姿勢とを元に、撮影部31の撮影方向を検出する。つまり、制御部39は、撮影部31の光軸の方向を求める。なお、方位センサ34と姿勢センサ35とを組み合わせたセンサによって、撮影部31の撮影方向を直接検出するようにしてもよい。
画像解析部36は、撮影部31が撮影した撮影画像から機器4を示す機器画像を認識し、撮影画像中における機器画像の位置を解析する。
例えば、画像解析部36は、上述した機器管理装置2の機器情報記憶部21に記憶されるテンプレート画像を用いて、機器画像を認識する。つまり、機器情報記憶部21には、各機器4の外観の特徴箇所を表すテンプレート画像がそれぞれ記憶されており、画像解析部36は、このテンプレート画像を機器管理装置2から取得し、テンプレートマッチング手法により、撮影画像から機器4を認識する。すなわち、画像解析部36は、撮影画像上で、テンプレート画像を移動させながら比較していくプレートマッチング手法により特定パターンを探し出し、撮影画像中における機器画像を認識する。
一例として、上述した図5の撮影画像が得られている場合、画像解析部36は、照明機器FLのテンプレート画像から機器画像を認識し、図6に示すように、認識シンボルRSにて把握する。
そして、画像解析部36は、認識した機器画像の撮影画像中における位置を解析する。例えば、図6に示す認識シンボルRSの中心をそれぞれ求め、それらの位置を、撮影画像中における各機器画像の位置とする。画像解析部36は、認識した機器画像に対応する機器4と、撮影画像中における機器画像の位置を示す解析データを制御部39に供給する。なお、機器4が認識できなかった場合も、その旨を示す解析データを制御部39に供給する。
なお、画像解析部36は、機器制御システム1で管理される可能性のあるすべての機器4を対象として、機器画像を認識(抽出)するようにしてもよい。また、画像解析部36は、このようなテンプレートマッチング手法の他に、一般の画像処理技術を適用してもよい。
図4に戻って、機器識別部37は、機器管理装置2(端末位置検出部22)が検出した操作端末3の位置、方位センサ34が検出した方位と姿勢センサ35が検出した姿勢とを元に検出した撮影部31の撮影方向、及び、画像解析部36が解析した撮影画像中における機器画像の位置に基づいて、機器4を上述した図3の機器情報211に対応付ける。つまり、撮影され、識別された機器4を、機器情報211における何れかの機器ID211aの機器に同定する。
より具体的に機器識別部37は、操作端末3と、撮影画像中の機器4(機器画像)とを結ぶ直線の方程式を求める。例えば、機器識別部37は、図7に示すように、操作端末3の位置T(Xt,Yt,Zt)から、撮影部31の撮影方向に向けて、直線Lを伸ばす。機器識別部37は、機器情報211(位置情報211c)を参照し、直線Lが最も近くを通る機器4を求める。図7の場合、位置E(Xe,Ye,Ze)に配置された機器4が求められる。そして、機器識別部37は、撮影画像中の機器画像にその機器4を対応付ける。
なお、機器識別部37は、画像解析部36が認識した全ての機器4(撮影画像中における各機器画像)に対して、同様の手法にて機器情報211と対応付ける。
なお仮に、端末位置検出部22により検出される操作端末3の位置が二次元の値である場合でも、操作端末3の操作される典型的な高さをあらかじめ設定しておき、この高さを含めた三次元の値を用いて、上記の演算を行うことができる。また、撮影画像中において複数の機器4が認識されている場合に、操作端末3の高さを未知変数として、複数の機器4について、対応付け可能な機器4の位置情報211cと直線方程式との距離が最も短くなるように、操作端末3の高さを含めてマッチングさせる演算を行ってもよい。
また、撮影画像中の機器4(機器画像)の相対的な大きさに基づいて、操作端末3と機器4との距離を推定し、推定した距離と上述した直接の方程式とから機器4の位置を推定し、位置情報211cと比較して機器情報211と対応付けてもよい。
更に、予め各種の機器4に応じて典型的な高さ情報を設定し、この高さを示す水平面と、上記直線との交点から、撮影画像中で認識された機器4(機器画像)の位置を推定し、この推定位置と位置情報211cと比較して機器情報211と対応付けるようにしてもよい。
図4に戻って、通信部38は、無線の通信ユニットからなり、機器管理装置2と通信する。
例えば、通信部38は、機器管理装置2から操作端末3の位置情報を受信したり、機器4に対する制御指示等を機器管理装置2に送信する。
制御部39は、操作端末3全体を制御する。例えば、制御部39は、CPU、ROM及びRAM等から構成される。制御部24は、ROM等に格納されたプログラムをRAMに読み出して、CPUが実行することにより、上述した入力部30〜通信部38を適宜制御する。
例えば、制御部39は、画像合成部32を制御して、撮影部31が撮影した撮影画像に、ユーザインタフェース画像を合成する。一例として、画像合成部32は、図8に示すように、上述した画像解析部36が認識した機器画像を標す識シンボルRSの近傍に、ユーザインタフェース画像UIを合成する。この図8では、ユーザインタフェース画像UIに、認識した機器4(機器画像)の機器IDを表示する表示例を示しているが、このような機器ID以外にも、種々の情報を表示してもよい。
一例として、画像合成部32は、図9(a)に示すようなユーザインタフェース画像UIを、撮影画像に合成してもよい。図9(a)のユーザインタフェース画像UIには、機器4の機器名称や状態が表示され、更に、その機器4を制御するためのボタンBtも含まれている。つまり、ユーザは、図9(a)のユーザインタフェース画像UIから、ボタンBtを押下することで、その機器4の動作状態を切り替えることができる。
この他にも、画像合成部32は、図9(b)に示すようなユーザインタフェース画像UIを、撮影画像に合成してもよい。図9(b)のユーザインタフェース画像UIには、機器4の属するグループやグループの状態が表示され、更に、そのグループを一括制御するためのボタンBtも含まれている。つまり、照明機器FLなどの機器4は、ある程度のまとまり(グループ)で同じ動作をするように求められるため、ユーザは、図9(b)のユーザインタフェース画像UIから、ボタンBtを押下することで、その機器4を含めたグループ内の機器4の動作状態を一括して切り替えることができる。
図1に戻って、機器4は、ビル内に配置される家電機器や住設機器であり、例えば、照明機器、ビルトインエアコン,温湿度センサ端末等である。
機器4は、有線通信ネットワーク9を介して、機器管理装置2と通信可能に接続され、機器管理装置2から送られる制御信号に従って、動作状態を遷移させる。
続いて、上記構成の機器制御システム1の動作について、以下、図10を参照して説明する。図10は、操作端末3等で実行される機器制御処理の一例を示すフローチャートである。
まず、機器管理装置2は、操作端末3の位置を検出する(ステップS101)。すなわち、端末位置検出部22は、屋内GPSや、無線LANによる屋内位置検出など公知の屋内端末位置検出技術を利用して、操作端末3の位置を検出する。なお、検出した操作端末3の位置を示す位置データは、操作端末3に送信される。
操作端末3から実空間を撮影する(ステップS102)。すなわち、撮影部31は、実空間の画像(例えば、ビル内の画像)を撮影し、撮影によって生成した撮影画像を、制御部39に供給する。
一例として、ユーザがビル内の天井に撮影部31の光軸を向けた状態で撮影が行われると、撮影部31は、上述した図5に示すような複数の照明機器FLを含んだ撮影画像を生成し制御部39に供給する。
操作端末3の撮影方向を検出する(ステップS103)。すなわち、制御部39は、方位センサ34が検出した方位と、姿勢センサ35が検出した姿勢とを元に、撮影部31の撮影方向を検出する。つまり、制御部39は、撮影部31の光軸の方向を求める。なお、方位センサ34と姿勢センサ35とを組み合わせたセンサによって、撮影部31の撮影方向を直接検出するようにしてもよい。
撮影画像から機器4を示す機器画像を識別し、撮影画像中における機器画像の位置を解析する(ステップS104)。すなわち、画像解析部36は、機器管理装置2の機器情報記憶部21に記憶されるテンプレート画像を用いて、機器画像を認識する。一例として、上述した図5の撮影画像が得られている場合、画像解析部36は、照明機器FLのテンプレート画像から機器画像を認識し、上述した図6に示すように、認識シンボルRSにて把握する。
そして、画像解析部36は、認識した機器画像の撮影画像中における位置を解析する。例えば、図6に示す認識シンボルRSの中心をそれぞれ求め、それらの位置を、撮影画像中における各機器画像の位置とする。画像解析部36は、認識した機器画像に対応する機器4と、撮影画像中における機器画像の位置を示す解析データを制御部39に供給する。
識別した機器4を、記憶している機器情報211に対応付ける(ステップS105)。すなわち、機器識別部37は、上記のステップS101にて検出された操作端末3の位置、上記のステップS103にて検出された撮影部31の撮影方向、及び、上記のステップS104にて解析された撮影画像中における機器画像の位置に基づいて、機器4を図3の機器情報211に対応付ける。つまり、撮影され、識別された機器4を、機器情報211における何れかの機器ID211aの機器に対応付ける。
より具体的に機器識別部37は、操作端末3と、撮影画像中の機器4(機器画像)とを結ぶ直線の方程式を求める。例えば、上述した図7に示すように、機器識別部37は、操作端末3の位置T(Xt,Yt,Zt)から、撮影部31の撮影方向に向けて、直線Lを伸ばす。そして、機器情報211(位置情報211c)を参照し、直線Lが最も近くを通る機器4を求める。図7の場合、位置E(Xe,Ye,Ze)に配置された機器4が求められる。そして、機器識別部37は、撮影画像中の機器画像にその機器4を対応付ける。
なお、機器識別部37は、画像解析部36が認識した全ての機器4(撮影画像中における各機器画像)に対して、同様の手法にて機器情報211と対応付ける。
機器情報に基づくユーザインタフェース画像を生成し、撮影画像に合成して表示する(ステップS106)。すなわち、画像合成部32は、上述した図8に示すように、画像解析部36が認識した機器画像を標す識シンボルRSの近傍に、ユーザインタフェース画像UIを合成する。この図8の例では、ユーザインタフェース画像UIに、認識した機器4(機器画像)の機器IDを表示しているが、上述した図9(a),(b)に示すように、ボタンBt等を含んだユーザインタフェース画像UIを、機器画像に合成して表示してもよい。
ユーザインタフェース画像の操作に基づいて、機器4の制御や設定を実施する(ステップS107)。
例えば、上述した図9(a)に示すユーザインタフェース画像UIにて、ボタンBtがユーザによって押下されると、制御部39は、通信部38を介して、機器4(この例では、機器IDが12の照明機器)に対する動作指示(この例では、オフ指示)を、機器管理装置2に送信する。機器管理装置2は、機器情報211を参照して、制御が要求された機器4に、制御信号を送信する。
これらステップS101〜S107の動作を、例えば、撮影モード中であれば、繰り返し実行するようにしてもよい。すなわち、操作端末3にて繰り返し画像を撮影しながら、撮影画像に含まれる機器4(機器画像)を認識し、ユーザインタフェース画像を撮影画像に合成して表示することで、操作端末3の表示を随時更新する。
また、操作端末3の表示を随時更新している場合に、ユーザが入力部30から確定入力を行うと、その時点での撮影画像と機器対応付け情報を保持し、以降は保持したデータに基づくユーザインタフェース画像を表示してもよい。すなわち、一旦、機器4の対応付けを確定すれば、対象の機器4が操作端末3の撮影範囲から外れても、ユーザは、そのまま対象の機器4の操作を行うことができる(スナップショットの保存機能)。
このように、本発明によれば、「撮影画像中の機器4の位置」と、「操作端末3の位置及び撮影方向」と、「予め保持された機器情報211(位置情報211c)」とに基づいて、撮影画像中の機器4(機器画像)と、機器情報211とを対応付けるため、上述した特許文献1のシステムのようにマーカを用いることなく、より簡易な構成で機器4を制御できる。
例えば、複数の機器4をグルーピングして、一つの操作で複数の機器4を一括操作するためのグループ設定を行う場合にも、ユーザは、操作端末に表示される撮影画像(ユーザインタフェース画像が合成された撮影画像)を見ながら、任意の機器4を選択して、グループ設定を行うこができる。
また、従来技術では、通常、機器4の識別子(識別情報等)は実際に設置された位置などとは無関係に設定され、また識別子が機器4にも表示されていないことから、特に同一機種の機器4が複数配置された機器制御システム1では、実際に設置されているどの機器4にどの識別子が割り当てられているのかを判断することが難しいという課題があった。
また、従来技術において、識別子をスイッチやGUIのアイコンに対応づけられる場合には、ユーザが、機器4の識別子に割り当てられたスイッチやアイコンと、実際の機器4との対応付けを認識することで、目的の機器4に対する操作を行うことも可能となる。しかしながら、機器制御システム1の導入時には、これらの対応付けをシステムに設定する必要があり、この設定作業において、上記同様にどの機器4にどの識別子が割り当てられているか判断することが難しいという課題があった。
特に、ビルにおける空調や照明といった機器4を制御する機器制御システム1では、同一機種の機器4が多数設置されるため、このような課題はより顕著であり、より簡便に機器を指定して当該機器の操作や設定を行えることが必要であった。
仮に、同一機種の機器4がシステム内で1台しか存在しない場合では、画像解析のみで対象の機器4を識別することも可能となり得る。しかしながら、同一機種の機器4がシステム内で複数存在する場合では、本願発明のように、各機器4の位置情報211cを記憶する機器情報211を備え、該各機器4の位置と、画像解析によって得られる位置とに基づいて各機器4をそれぞれ識別することが不可欠となる。
従って、本願発明では、機器制御システム1内に、同一機種の機器4が多数配置される状況で、各機器4を正しく識別することができる。
上記の実施形態では、操作端末3が画像解析部36、機器識別部37、及び、画像合成部32を備える場合について説明したが、これらの構成を機器管理装置2側に備えるようにしてもよい。その場合、操作端末3は、通信部38から、撮影画像、方位・姿勢データを機器管理装置2に送信し、機器管理装置2側で画像解析、機器識別、及び、画像合成等を実施する。
(変形例)
上記の実施形態では、画像解析部36が認識した全ての機器について、機器識別部37は、上述した図7の直線Lを用いて、機器4を機器情報211に対応付ける場合について説明したが、対応付けの精度をより高めるために、テンプレート画像に対して相対的に大きく撮像された機器4(機器画像)についてのみ、上述した図7の直線Lを用いて対応付けを行い、その他の機器4については、撮影画像中の相対配置と、機器情報211における位置情報211cの相対配置とに基づいて、応付けを行うようにしてもよい。
以下、この対応付けの精度をより高める手法について、具体的に説明する。
まず、機器識別部37は、テンプレート画像に対して相対的に大きく撮像された機器4について、上述した図7の直線Lを用いて、機器情報211に対応付ける。
次に、機器識別部37は、撮影画像中に認識(抽出)された複数の機器4の相対配置(隣接関係)を求める。例えば、撮影画像中で抽出された各機器4同士を直線で結んだ場合に、機器識別部37は、間に他のものが存在しなければ隣接と判定する。
次に、機器識別部37は、機器情報211の位置情報211cから、同様に、機器4の相対配置(隣接関係)を求める。
そして、機器識別部37は、操作端末3の撮影方向に基づいて、座標変換を行い、撮影画像と機器情報211の位置情報211cのそれぞれから得られた相対配置を比較し、最初に図7の直線Lを用いて対応付けた機器4を基準として、残りの機器4を順次機器情報211と対応付けを行う。
つまり、最初に対応付けた機器4を基準として、ある方向に隣接関係にある機器4と、位置情報211cにおいて同じ方向に隣接関係にある機器4の機器情報211とを対応づける。この動作を繰り返し行うことで、撮影画像中で認識(抽出)された機器4と機器情報211とをすべて対応付ける。
操作端末3と撮影画像中の機器4(機器画像)とを結ぶ直線の方程式によって機器4を同定すると、操作端末3に近い(すなわち相対的に大きく撮像される)機器4は誤差が小さいものの、操作端末3から離れた位置にある機器4は誤差が大きくなってしまう。そのため、本変形例のように、相対的に大きく撮像された機器4についてのみ、図7の直線Lを用いて同定し、他の機器4は隣接関係に基づいて同定することにより、誤った対応付けを減らすことが可能となる。
また、本変形例において、操作端末3の移動により撮像範囲が動いて行った場合に、最初に同定した機器4については、機器情報211との対応付けを保持し、さらに撮影画像上で画像処理によりトラッキング(追尾)し、他の機器4については、随時、隣接関係に基づいて機器情報211と対応付けるようにしてもよい。
例えば、まず、特定の機器4をできるだけ大きく撮影して(近くで撮影して)、機器情報211と対応付けた後、少しずつ撮像範囲を動かして(少しずつ離れて撮影して、撮像範囲に入った機器4を隣接関係に基づいて順次機器情報211と対応付けていく。このようにまず近くの機器4を大きく撮像し精度よく機器情報211と対応付け後に、その周囲の機器4を順次機器情報211と対応付けることにより、すべての機器4について精度よく機器情報211と対応づけることができる。
このように、本発明の実施形態に係る機器制御システム1はマーカ等を用いることなく、より簡易な構成で、機器を制御することができる。
上記の実施形態では、操作端末3にタブレット端末やスマートフォン等を利用する場合について説明したが、その他にもヘッドマウントディスプレイ(HMD)等を利用してもよい。
本発明は、機器制御システム1に限られず、他に、照明制御システムにおける照明器具やスイッチの操作・設定に利用してもよい。また、本発明は、機器制御システム1に限られず、他に、空調制御システムにおける空気調和装置やリモコン装置の操作・設定に利用してもよい。また、本発明は、機器制御システム1に限られず、他に、温度や湿度などを計測するセンサシステムにおけるセンサ端末の操作・設定に利用してもよい。
上記の実施形態では、機器管理装置2や操作端末3を用いる場合について説明したが、これら機器管理装置2や操作端末3の動作を規定する動作プログラムを既存のパーソナルコンピュータや情報端末機器等に適用することで、当該パーソナルコンピュータ等を本発明に係る機器管理装置2や操作端末3として機能させることも可能である。
また、このようなプログラムの配布方法は任意であり、例えば、CD−ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto Optical Disk)、メモリカード等のコンピュータ読み取り可能な記録媒体に格納して配布してもよいし、インターネット等の通信ネットワークを介して配布してもよい。
本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。つまり、本発明の範囲は、実施形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。
1 機器制御システム、2 機器管理装置、21 機器情報記憶部、22 端末位置検出部、23 通信部、24 制御部、3 操作端末、30 入力部、31 撮影部、32 画像合成部、33 表示部、34 方位センサ、35 姿勢センサ、36 画像解析部、37 機器識別部、38 通信部、39 制御部、4 機器、8 無線通信ネットワーク、9 有線通信ネットワーク

Claims (3)

  1. 制御対象となる機器と、当該機器と通信可能に接続された機器管理装置と、当該機器管理装置と通信可能に接続された操作端末とを有する機器制御システムであって、
    前記操作端末の位置を検出する位置検出部と、
    前記操作端末から前記機器を含む実空間を撮影する撮影部と、
    前記撮影部が撮影した撮影画像から前記機器を示す機器画像を認識し、当該撮影画像中における当該機器画像の位置を解析する画像解析部と、
    前記操作端末の撮影方向を求めるセンサと、
    前記機器の位置を含む機器情報を予め記憶する機器情報記憶部と、
    前記位置検出部が検出した前記操作端末の位置、前記センサが求めた前記操作端末の撮影方向、及び、前記画像解析部が解析した撮影画像中における機器画像の位置に基づいて、前記機器を前記機器情報記憶部に記憶される機器情報に対応付ける機器識別部と、
    前記機器識別部が対応付けた機器情報に基づいて生成したユーザインタフェース画像を、前記撮影部が撮影した撮影画像に合成して表示する表示部と、を備え、
    前記機器識別部は、前記撮影部が撮影した撮影画像中で相対的に大きく撮像された機器画像についてだけ、前記位置検出部が検出した前記操作端末の位置と、前記撮影部が撮影した撮影画像中の機器画像の画像の位置とを結ぶ直線の方程式を求め、当該直線の方程式に基づいて、前記機器を前記機器情報記憶部に記憶される機器情報に対応付けると共に、撮影画像中の残りの機器画像について、撮影画像中における機器画像同士の相対配置と、前記機器情報記憶部に記憶される機器情報における前記機器同士の相対配置とに基づいて、残りの機器を前記機器情報記憶部に記憶される機器情報に対応付ける、
    器制御システム。
  2. 前記画像解析部は、テンプレートマッチングにより、前記撮影部が撮影した撮影画像から前記機器を示す機器画像を認識し、当該撮影画像中における当該機器画像の位置を解析する、
    求項1に記載の機器制御システム。
  3. 制御対象となる機器と、当該機器と通信可能に接続された機器管理装置と、当該機器管理装置と通信可能に接続された操作端末とを有するシステムにおける機器制御方法であって、
    前記操作端末の位置を検出する位置検出ステップと、
    前記操作端末から前記機器を含む実空間を撮影する撮影ステップと、
    前記撮影ステップにて撮影した撮影画像から前記機器を示す機器画像を認識し、当該撮影画像中における当該機器画像の位置を解析する画像解析ステップと、
    前記操作端末の撮影方向を求める検出ステップと、
    前記位置検出ステップにて検出した前記操作端末の位置、前記検出ステップにて求めた前記操作端末の撮影方向、及び、前記画像解析ステップにて解析した撮影画像中における機器画像の位置に基づいて、前記機器を、前記機器の位置を含む機器情報に対応付ける機器識別ステップと、
    前記機器識別ステップにて対応付けた機器情報に基づいて生成したユーザインタフェース画像を、前記撮影ステップにて撮影した撮影画像に合成して表示部に表示する表示制御ステップと、を備え、
    前記機器識別ステップでは、前記撮影ステップにて撮影した撮影画像中で相対的に大きく撮像された機器画像についてだけ、前記位置検出ステップにて検出した前記操作端末の位置と、前記撮影ステップにて撮影した撮影画像中の機器画像の画像の位置とを結ぶ直線の方程式を求め、当該直線の方程式に基づいて、前記機器を前記機器情報に対応付けると共に、撮影画像中の残りの機器画像について、撮影画像中における機器画像同士の相対配置と、前記機器情報における前記機器同士の相対配置とに基づいて、残りの機器を前記機器情報に対応付ける、
    器制御方法。
JP2013254284A 2013-12-09 2013-12-09 機器制御システム、および、機器制御方法 Active JP6104143B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013254284A JP6104143B2 (ja) 2013-12-09 2013-12-09 機器制御システム、および、機器制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013254284A JP6104143B2 (ja) 2013-12-09 2013-12-09 機器制御システム、および、機器制御方法

Publications (2)

Publication Number Publication Date
JP2015115649A JP2015115649A (ja) 2015-06-22
JP6104143B2 true JP6104143B2 (ja) 2017-03-29

Family

ID=53529121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013254284A Active JP6104143B2 (ja) 2013-12-09 2013-12-09 機器制御システム、および、機器制御方法

Country Status (1)

Country Link
JP (1) JP6104143B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6503990B2 (ja) * 2015-09-07 2019-04-24 オムロン株式会社 撮影装置、撮影方法及び撮影プログラム
WO2018134943A1 (ja) * 2017-01-19 2018-07-26 三菱電機株式会社 判別装置、判別システム、判別方法及びプログラム
JP6720902B2 (ja) * 2017-03-15 2020-07-08 トヨタ車体株式会社 車載機器の制御装置及び車載機器制御用のアプリケーションソフトウェア
CN110476203A (zh) * 2017-03-31 2019-11-19 夏普株式会社 信息提供装置、终端装置、显示系统、程序及信息提供方法
KR102499576B1 (ko) * 2018-01-08 2023-02-15 삼성전자주식회사 전자 장치 및 그 제어 방법
JP7369611B2 (ja) * 2019-01-08 2023-10-26 東芝ライフスタイル株式会社 遠隔操作端末、プログラム、遠隔制御装置及び遠隔操作システム
JP7313161B2 (ja) * 2019-03-01 2023-07-24 三菱電機株式会社 空気調和機システム、コントローラ、施工支援方法および施工支援プログラム
JP7114001B1 (ja) * 2021-03-30 2022-08-05 三菱電機株式会社 設備機器システム、制御装置、位置特定方法、および、プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5696489B2 (ja) * 2011-01-19 2015-04-08 セイコーエプソン株式会社 サーバー装置、印刷システム、および、印刷方法
JP5989347B2 (ja) * 2012-02-03 2016-09-07 コニカミノルタ株式会社 携帯端末、携帯端末の制御プログラム、及び携帯端末を含む表示システム

Also Published As

Publication number Publication date
JP2015115649A (ja) 2015-06-22

Similar Documents

Publication Publication Date Title
JP6104143B2 (ja) 機器制御システム、および、機器制御方法
US8971629B2 (en) User interface system based on pointing device
US10642372B2 (en) Apparatus and method for remote control using camera-based virtual touch
JP5762892B2 (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
KR20150055543A (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP6522237B2 (ja) 空調可視化システム
JP2009134718A5 (ja)
US20140355819A1 (en) Device and method for allocating data based on an arrangement of elements in an image
JP2012172910A (ja) 室内環境調整用機器の操作システム
US20230040665A1 (en) Air-conditioning operation terminal, computer-readable medium and air-conditioning system
JP2015194367A (ja) 温度計測装置およびその計測結果の表示処理用のプログラムならびに温度計測システム
JPWO2018150569A1 (ja) ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JP2012156834A (ja) リモコン装置及びプログラム
JP6349886B2 (ja) 画像投射装置、画像投射装置の制御方法、および画像投射装置の制御プログラム
GB2581248A (en) Augmented reality tools for lighting design
JP7416231B2 (ja) 設置支援装置、設置支援方法、およびプログラム
WO2020244577A1 (zh) 一种基于位置的交互方法和交互系统
KR102614026B1 (ko) 복수의 렌즈를 구비하는 전자 장치 및 그 제어 방법
JP2014170367A (ja) 物体検出装置、物体検出方法、物体検出システム及びプログラム
CN107925724A (zh) 在具有相机的设备中支持摄影的技术及其设备
US20240159418A1 (en) Air-conditioning operation terminal, computer readable medium and air-conditioning system
KR20240074600A (ko) 전자 장치 및 가상 IoT 환경을 제공하는 방법
JP2021131521A (ja) 表示制御装置、表示制御方法およびプログラム
TW202201269A (zh) 基於位置的交互方法、交互系統以及電腦可讀取記錄媒體
JP2013021440A (ja) 遠隔制御装置、遠隔制御方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170228

R150 Certificate of patent or registration of utility model

Ref document number: 6104143

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250