JP2016017707A - 空気調和システム - Google Patents
空気調和システム Download PDFInfo
- Publication number
- JP2016017707A JP2016017707A JP2014141439A JP2014141439A JP2016017707A JP 2016017707 A JP2016017707 A JP 2016017707A JP 2014141439 A JP2014141439 A JP 2014141439A JP 2014141439 A JP2014141439 A JP 2014141439A JP 2016017707 A JP2016017707 A JP 2016017707A
- Authority
- JP
- Japan
- Prior art keywords
- human body
- unit
- image
- information
- air conditioning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【解決手段】撮像装置が取得した撮像画像から人体の画像を検出する人体情報検出部132と、撮像画像を基に、実際の環境の間取りを検出する間取り検出部133と、人体情報検出部132が検出した人体が、間取り検出部133が検出した間取りにおいて、どの位置に存在しているかを検出する人体位置判定部146と、人体情報検出部132が検出した人体の位置に関する情報を、間取り検出部133が検出した間取りとともに表示画像として描画する画像生成部137と、画像生成部137が生成した表示画像を、表示装置に表示させる表示処理部と、を有することを特徴とする。
【選択図】図3
Description
例えば、特許文献1には、撮像装置を備える室内機が室内を撮像し、その撮像データに室内機からの気流情報を合成した画像データをリモコン等の表示部に表示する空気調和機が開示されている。この技術において、空気調和機は、撮像データから操作者の位置を特定する。そして、空気調和機は、操作者側から見た室内の画像に加工する。その後、空気調和機は、識別した人をあらかじめ用意した絵に置き換えて表示部に表示する。操作者は表示部を通して室内の状況と気流状況を把握し、また表示部を直接操作して気流を調整することが可能となっている。
また、室内機自身からみた画像であるため、ユーザは部屋のどこに在室者がいるのかを把握しづらい。
なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。
<空気調和システムの構成>
図1は、第1実施形態に係る空気調和システムの構成例を示す図である。
図1に示すように、空気調和システムAは、室内機1と、室外機3と、リモコン(リモートコントローラ)Reと、外部情報端末2とを備えている。室内機1と室外機3とは冷媒配管(図示せず)を介して接続され、周知の冷媒サイクルによって、室内機1が設置されている室内を空調する。また、室内機1と室外機3とは、通信ケーブル(図示せず)を介して互いに情報を送受信する。
筐体ベース101は、熱交換器102、送風ファン103、フィルタ108等の内部構造体を収容している。
上下風向板105は、室内機マイコンからの指示に従い、両端部に設けた回動軸(図示せず)を支点にして上下風向板用モータ(図示せず)により回動される。
図3は、第1実施形態に係る室内機における制御部の構成例を示す機能ブロック図である。図3(a)は、室内機1におけるハードウェア構成を示しており、図3(b)は、室内機1の制御部130の構成を示している。
図3(a)において、撮像装置110は、例えば、CCD(Charge Coupled Device)カメラ等であり、前記したように、前面パネル106の左右方向中央の下部に設置されている(図1参照)。また、撮像装置110は、レンズの光軸が水平線に対して所定角度(本実施形態では45°)だけ下方を向くように設置され、室内機1が設置されている室内を適切に撮像できるようになっている。
図3(b)において、制御部130は、撮像装置110から入力される撮像画像、リモコンRe(図1参照)から入力される指令信号、及び各種センサ(図示せず)から入力されるセンサ信号等に応じて、空気調和システムA(図1)の動作を制御する。
図3に示すように、制御部130は、記憶処理部131と、人体情報検出部132と、間取り検出部133と、移動量算出部134と、補正値算出部135と、駆動制御部136と、画像生成部137と、を備えている。
また、人体情報検出部132は、人体検出部141及び顔検出部142を備えている。そして、間取り検出部133は、コーナ方向判定部145、人体位置判定部(人体位置検出部)146及び広がり範囲判定部147を備えている。
人体情報検出部132は、撮像画像から、在室者の人体に関する情報を検出するものであり、前記したように、人体検出部141と、顔検出部142とを有している。
人体検出部141は、撮像画像に基づいて所定時間ごとに、在室者の頭部を含む人体を検出し、当該人体に関する情報(以下、人体情報と記す。)を記憶部138に格納する。ちなみに、「頭部を含む人体を検出する」とは、頭部(頭領域)、肩部(肩領域)、及び足部(足領域)を含む全身を検出する場合を含んでいる。
なお、人体検出部141の処理は、後記する顔検出部142の処理と比較して粗い画素間隔で実行される。
顔検出部142は、撮像画像に基づいて所定時間ごとに在室者(人体)の顔を検出し、当該顔に関する情報(以下、顔情報と記す。)を記憶部138に格納する。
例えば、ある時刻に人体を検出し、前記時刻より後の時刻に顔を検出した場合に、検出された人体と顔とが同一人物のものであるか否かを判定する必要がある。人体情報検出部132は、検出された人体と顔とが同一人物のものであると判定した場合、各画像情報を対応付ける。対応付けには各人体の顔情報及び人体情報を後記する移動情報151(図9)で保持し、人体画像の頭部中心と顔中心の距離が一定距離以内であれば同一と判定する。
人体情報と顔情報を一致させておくと、後記する移動量の算出時に優先的に顔情報を使用することができる。顔情報は細かい画素間隔で検出できるため、より正確に移動量を算出できるという利点がある。なお、逆光や背中等で顔が検出できていなくても、人体を検出していれば移動量の算出は可能であるため、状況に応じて人体情報と顔情報を使い分けることで、人体(在室者)の同一性を確保しつつ追跡することができる。
コーナ方向判定部145は、撮像画像に基づいて、撮像画像から部屋のコーナの方向(コーナ方向)を検出し、検出したコーナ方向を基に部屋を構成する壁の遠近に関する情報を推定する。なお、本実施形態において、「部屋」とは、室内機1が取り付けられ、空気調和の対象となる部屋である。
人体位置判定部146は、撮像画像に基づいて、撮像画像内における人体の位置を算出し、算出した撮像画像内における人体の位置を基に部屋における人体の実位置を推定する。
広がり範囲判定部147は、コーナ方向判定部145が検出したコーナの方向と、人体位置判定部146が算出した人体の実位置とを基に、部屋における壁の位置を推定する。
補正値算出部(空調制御部)135は、少なくとも過去における在室者の行動に基づいて、空調制御に用いるパラメータの値を変更し、当該パラメータを駆動制御部136に出力する。
なお、前記パラメータとは、空気調和システムAの設定温度、室外機3が備える圧縮機モータ(図示せず)の回転速度、及び圧縮機モータ(図示せず)に供給される最大電流量のうち少なくとも一つを含む。また、前記パラメータとして、室内ファンモータ(図示せず)の回転速度、上下風向板用モータ(図示せず)の駆動、及び左右風向板用モータ(図示せず)の駆動も含んでいる。
図4は、第1実施形態に係る外部情報端末の構成例を示す機能ブロック図である。
送受信装置211は、室内機1と情報を送受信するための装置であり、室内機1から出力された情報を受信したり、外部情報端末22をリモコンとして使用する場合、外部情報端末22から情報を室内機1に送信したりする。
表示装置(表示部)213は、液晶ディスプレイ等である。
次に、図1〜図4を適宜参照しつつ、図5〜図27に沿って制御部130が実行する一連の処理を説明する。
図5は、第1実施形態に係る制御部が行う全体処理の手順を示すフローチャートである。
ステップS101の前に、制御部130は、1回の撮像装置110の首振りで取得された右画像、正面画像、左画像をはり合わせて、1枚の撮像画像とする。
その後、ステップS101にて制御部130は、nの値を「1」に設定し(S101:n=1)、制御部130が、記憶部138に格納する。ちなみに、nは、前記した移動量及び活動量を算出する回数をカウントするために用いられる値である。
次に、ステップS102にて制御部130は、処理を開始してから(つまり、STARTの時刻から)所定時間Δt1が経過したか否かを判定する。なお、所定時間Δt1は予め設定された時間(例えば、数msec)であり、記憶部138に予め格納されている。
ステップS102の結果、処理を開始してから所定時間Δt1が経過した場合(S102→Yes)、制御部130の処理はステップS103に進む。
ステップS103において記憶処理部131は、撮像画像の入力を受け付け、当該撮像画像を記憶部138に格納する。
人体情報検出部133は、人体検出処理の結果、出力される顔情報及び人体情報を移動情報151に格納することによって、記憶部138に格納する。移動情報151については後記する。
そして、制御部130は、顔画像を特徴付ける情報(つまり、顔情報)と、顔情報及び人体情報を保持する移動情報151に対応付けて、記憶部138に格納する。
これによって、人体検出処理によって検出される人体と、顔検出処理によって検出される顔とが、同一の人体に対応するか否かを適切に判定できる。
そして、移動量算出部134は、算出した移動量を記憶部138に格納する。
次に、ステップS108において間取り検出部133は、撮像画像を解析して部屋のコーナとその撮像装置110からの距離を算出し、部屋の間取りを検知する間取り検出処理を行う。間取り検出処理については後記して説明する。
ステップS109の結果、nの値がNに等しい場合(S109→Yes)、制御部130の処理はステップS111に進む。
一方、ステップS109の結果、nの値がNに等しくない場合(S109→No)、制御部130の処理はステップS110に進む。
ステップS110において制御部130は、nの値をインクリメントする。すなわち、制御部130は、ステップS101において設定したnの値を「1」インクリメントする。
このようにして、制御部130は、ステップS102〜110の処理を繰り返しN回実行する。
ステップS111の結果、画像出力を行う場合(S111→Yes)、制御部130の処理はステップS112に進む。
一方、ステップS111の結果、画像出力を行わない場合(S111→No)、制御部130の処理はステップS115に処理を戻す。
続いて、ステップS114において、画像生成部137は、ステップS112で部屋の形状、人体の位置、家具の形状等が描画された画像(表示画像)を外部情報端末2に出力する。
その後、制御部130はステップS101へ処理をリターンし、空気調和システムAの電源がOFFされるまで、ステップS101〜S116の処理を繰り返す。
(人体検出処理:S104)
図6は、人体検出処理の手順を示すフローチャートである。なお、図6に示す処理は、図5におけるステップS104の処理を詳細に説明するためのフローチャートである。なお、人体検出処理は特開2013−253717号公報に記載されている技術である。
まず、ステップS201において人体検出部141は、撮像画像に対して2値化処理を実行する。すなわち、人体検出部141は、A/D変換器121を介して撮像画像を記憶部138から読み出す。そして、人体検出部141は、撮像画像におけるRGB画像を2値化画像に変換する。なお、当該2値化処理は、例えば、人体検出部141が、予め設定された複数画素間隔でRGB画像を分割し、それぞれの領域(例えば、5×5画素の領域)における輝度値の合計を用いること等で実行される。これによって、粗い画素間隔による人体認識が可能となり、演算量が低減されるとともに、制御部130の処理負荷が軽減されることで処理の高速化が可能となる。
図7は、顔検出処理の手順を示すフローチャートである。なお、図7に示す処理は、図5におけるステップS105の処理を詳細に説明するためのフローチャートである。なお、顔検出処理は特開2013−253717号公報に記載されている技術である。
まず、ステップS301において、顔検出部142は、撮像画像に対して、フィルタ処理を実行することで、撮像画像からノイズを除去する。すなわち、顔検出部142は、撮像画像を記憶部138から読み出し、例えば、ウェーブレット変換を用いてRGB画像情報からノイズを除去する。
図8は、移動量算出処理の手順を示すフローチャートである。なお、図8に示す処理は、図5におけるステップS107の処理を詳細に説明するためのフローチャートである。また、移動量算出処理は特開2013−253717号公報に記載されている技術である。
まず、ステップS401において、移動量算出部134は、撮像装置110の撮像面での顔の像の横幅を算出する。なお、人体は検出できたものの顔を検出できなかった人体に関しては、撮像面での人体像の頭部の横幅が算出される。
このときの移動量ΔXは、以下に示す式(1)を用いて算出することができる。
このようにして、移動量算出部134は、経時的に変化する人体の顔の位置及び大きさ(横幅)の変化、又は、頭部の位置及び大きさ(横幅)の変化に基づいて移動量を算出し、記憶部138に格納する。
移動情報151には、時刻、在室者、位置情報、顔情報、人体情報、移動量が格納されている。
時刻は、撮像時刻である。在室者は、在室者の識別情報である。前記したように、人体情報検出部132は、各人体画像の頭部中心と顔中心の距離が一定距離以内であれば同一と判定しているが、人体情報検出部132は、同一人物と判定した人体情報と、顔情報とに識別情報を付与する。また、人体情報検出部132は、異なるフレーム間においても、人体画像の頭部中心と顔中心の距離が一定距離以内であれば同一人物と判定し、同じ識別情報を付与する。あるいは、人体情報検出部132は、顔の特徴量を検出できる場合、検出した顔の特徴量を記憶しておき、同様の特徴量を有する顔の人物を同一人物と判定してもよい。このようにすることで、例えば、部屋から一度出た後、部屋内に戻ってきた人物を同一人物と判定することができる。顔の特徴量算出は、公知の技術であるため、ここでは説明を省略する。
位置情報は、移動量算出処理の中間情報として算出されるものであり、画像中の座標として表わされる。図9の例では、「X1A,Y1A」等となっているが、実際には数値座標が格納される。
顔情報には、顔検出処理で検出された顔情報に付与された識別番号が格納されている。
また、人体情報には、人体検出処理で検出された人体情報に付与された識別番号が格納されている。
そして、移動量には、移動量算出処理で算出された、各人体の移動量が格納されている。
図10は、間取り検出処理の手順を示すフローチャートである。なお、図10に示す処理は、図5におけるステップS108の処理を詳細に説明するためのフローチャートである。なお、図10で使用される情報は、人体検出処理で検出された人体情報や、顔検出処理で検出された顔情報である。本実施形態では、顔情報が優先的に使用されるものとする。
まず、ステップS501において、コーナ方向判定部145がコーナ方向判定処理を行う。コーナ方向判定処理の詳細については後記して説明する。
次に、ステップS502において、人体位置判定部146が人体位置判定処理を行う。人体位置判定処理については後記して説明する。
そして、ステップS503において、広がり範囲判定部147が広がり範囲判定処理を行う。広がり範囲判定処理については後記して説明する。
図11は、コーナ方向判定処理の手順を示す説明するフローチャートである。また、図12は、コーナ方向判定処理で行う画像処理を、順を追って説明するための図である。そして、図13は、室内を鉛直上方側から見た概念図で、撮像装置110の水平方向の向きの移動と視野角について説明するための図である。また、図14は撮像装置で撮像した室内の撮像画像例を示す図である。
なお、図11に示す処理は、図10におけるステップS501の処理を詳細に説明するためのフローチャートである。
まず、ステップS601において、コーナ方向判定部145は、撮像画像(図12(a)参照)からエッジを検出する。
次に、ステップS602において、コーナ方向判定部145は、検出したエッジに対して、フィルタリング処理を行い、所定値以上に太く、所定値以上に長く、かつ、所定値以上に明瞭なエッジのみを残す。
図12(b)は、ステップS602のフィルタリング処理が行われることで、図12(a)の撮像画像から得られたエッジ371を白い線図で示している。
図12(c)には、ステップS603の処理において、延長された各エッジ371が示されている。
そして、ステップS604において、コーナ方向判定部145は、ステップS603で延長した各エッジ371の交点(図12(d)に示す交点372)を算出する。図12(d)に示す交点372は、図12(c)におけるエッジ371の交点である。
その後、ステップS605において、コーナ方向判定部145は、算出された各交点の重心の座標を算出する。図12(e)の符号373は、図12(d)の各交点372の重心である。コーナ方向判定部145は、各交点372の撮像画像上の基準位置(例えば、原点)からのX方向(横方向)、Y方向(縦方向)の距離の平均をそれぞれ求めることにより、重心373の座標を算出する。ここでの座標とは、撮像画像における座標である。
該処理を、図13を参照して説明する。
図13は、撮像装置110の水平方向の向きの移動と視野角について説明する説明図である。図13は、室内機1及び当該室内機1が設けられている室内を鉛直上方側からみた概念図であり、図13の上側は当該室内機1が取り付けられている壁側となり、下側は室内機1が取り付けられている室内の室内機1の前方側の空間となる。
図13に示すように、室内機1の正面からみた2つのコーナ373a,373b(373)の方向を符号376,377で示す。ステップS607において、コーナ方向判定部145は、室内機1の正面に対する方向376,377の角度を算出する。
なお、図12に示す手法でコーナを算出する際、交点372(図12(d))を既知の手法でグルーピングした後、グルーピングされた交点372毎に重心373を算出することで、図13に示すように複数のコーナ373a,373bを算出することができる。
方向311とコーナ方向376とがなす角、及び方向311とコーナ方向377とがなす角が、ステップS607で算出される「各コーナの室内機1の正面に対する角度」である。
そして、図11のステップS609において、コーナ方向判定部145は、ステップS608で判定される室内機1と壁の遠近に関する情報を記憶部138に格納する。
まず、コーナ方向判定部145は、室内機1の正面線311と、方向線377とがなす角度aを算出する。これは、撮像装置110の例えば水平方向の全画素数が640[pixel]であり、角度aの範囲の(上下、左右方向の)画素数がβ[pixel]であったとすれば、コーナ方向判定部145は、640[pixel]:β[pixel]=60°:a°”→“a°=60°×β[pixel]/640[pixel]”として角度aを算出する。続いて、コーナ方向判定部145は、“A°=30°+a°”で角度Aが求められる(範囲312の角度が約60°で、30°はその半分)。
図15の例では、“A°>B°”であるので、コーナ方向判定部145は、図15において、壁335の方が壁336より空気吹出し口109b側からみて遠いと判定する。
このような場合には、図16(b)に示すように、コーナ(重心)373の候補(符号373c)が複数求められることがある。
このような場合、コーナ方向判定部145は、複数の候補373cの撮像画像上の基準位置からのX方向(横方向)、Y方向(縦方向)の距離の平均をそれぞれ求めることにより、当該平均後の座標をコーナ(重心)373dとして算出する。ここで、基準位置とは、例えば、任意に定められた原点のことである。
次に、撮像装置110からみた室内の人体の位置の判定処理について図17、図18を参照して説明する。
図17は、人体位置判定処理の手順を示すフローチャートである。なお、図17に示す処理は、図10におけるステップS502の処理を詳細に説明するためのフローチャートである。また、図17では人体位置判定処理の概要を説明することとし、処理の詳細は図18を参照して説明することとする。
まず、ステップS701において、人体位置判定部146は、撮像画像を基に人体の位置を検出する。
次に、ステップS702におおいて、人体位置判定部146は、検出した人体の位置に関し、画面上の座標系から実空間の座標系に変換する。これにより、室内のどこに人体が存在していたかを判定することができる。
人体位置判定部146は、このようにして、人体の実空間の座標を判定すると、ステップS703において、当該座標の情報を記憶部138に記憶する。
図17の処理のステップS702において、人体位置判定部146は、以下の処理により室内の人体の実空間の座標を判定する。
まず、頭部は、身長、性別に比較的依存しない大きさを有する人間の体の部位である。そこで、人体位置判定部146は、図11のステップS701で検出した人体ごとに当該人体の顔中心の位置を算出するとともに、その頭部の大きさ(縦方向の長さ)D0(図18(b))を算出する。
撮像装置110の光軸Pは、水平面に対して俯角εを有している。垂直面Sは、光軸Pに垂直であるとともに、人体391の顔中心を通る仮想平面である。距離Lは、撮像装置110が有するレンズ(不図示)の焦点501a(図18(b))と、人体391の顔中心との距離である。また、室内機1が設置される壁331とレンズの焦点501aとの距離はΔdである。
図18(b)に示す撮像画像面Rは、撮像装置110が有する複数の受光素子(不図示)を通る平面である。算出した前記の頭部の大きさD0に対応する縦方向の画角γyは、以下に示す式(4)で表される。
δy={yc−(Ty/2)}×βy ・・・ (7)
したがって、実空間における人体中心(頭部中心)の位置座標は、以下に示す式(8)〜式(10)によって表される。
y=L・cosδx×sin(ε‐δy) ・・・ (9)
z=Δd+L・cosδx×cos(ε‐δy) ・・・ (10)
次に、図17に示される人体位置判定処理の結果を用いて室内の広がりの範囲を判定する処理について説明する。
図19は、広がり範囲判定処理の手順を示すフローチャートであり、図20は、当該判定処理について説明する室内配置の平面図である。なお、図19に示される処理は、図10におけるステップS503の処理を詳細に説明するためのフローチャートである。
まず、ステップS801において、広がり範囲判定部147は、図17のステップS703により、新たに人体の座標情報が記憶部138に記憶されたか否かを判定する。
ステップS801の結果、新たに人体の座標情報が記憶されていない場合(S801→No)、広がり範囲判定部147は、ステップS801の処理を繰り返す。
ステップS801の結果、新たに人体の座標情報が記憶された場合(S801→Yes)、ステップS802において、広がり範囲判定部147は、左右のコーナ方向間の領域外に人体の座標が存在するか否かを判定する。ステップS802において、広がり範囲判定部147は、図20に示すように、室内の左右のコーナ方向376と方向377との間の領域383外側の領域381(薄いドットで示される領域)に、図17に示す処理で算出された人体の座標が存在するか否かを判定する。人体の座標が符号382の位置にある場合、広がり範囲判定部147は、ステップS802で「Yes」と判定する。
ステップS802の結果、人体の座標が左右のコーナ方向間の領域外に人体の座標が存在する場合(S802→Yes)、ステップS803において、広がり範囲判定部147は、人体のX方向の座標位置を左又は右の壁の位置と推定する。つまり、図20において、広がり範囲判定部147は、人体のX方向の座標(図20の左右方向)位置を室内機1に向かって右側の壁336bの位置と推定する。当該座標382に人体が位置するということは、壁336bは少なくとも当該座標の位置あるいはさらにその外側にあることになる。従って、その人体の位置(座標382)を現時点での壁336の仮位置とするものである。
ステップS804の処理を、図20を参照して説明する。
ステップS803の処理により、壁336bの現時点における推定位置がわかるので、広がり範囲判定部147は、室内の各コーナ及び各壁の位置を推定する。すなわち、この壁336bの位置のY方向を延長していき、コーナ方向376との交点を仮の実コーナ422aと推定する。また、広がり範囲判定部147は、当該仮の実コーナ422aの位置からX方向に他のコーナ377に達するまで線334bをひく。広がり範囲判定部147は、当該線334bを正面の壁334の仮位置と推定する。
室内機1が取り付けられている壁331の撮像装置110に対する位置は予め記憶部138に格納されているので、広がり範囲判定部147は、壁331と、壁336b,335bそれぞれとの交点を算出することで、部屋の大きさを推定する。
ステップS805の結果、左右のコーナ方向間の領域内に人体の座標が存在していない場合(S805→No)、広がり範囲判定部147は、ステップS808へ処理を進める。
また、ステップS802とステップS805の両方で「No」と判定された場合、領域381及び領域383の両方で人体が検出されたことを示している。
ステップS806において、広がり範囲判定部147は、図20における人体の位置384のY方向の座標位置を室内機1の正面の壁334の仮位置(334a)と推定する。当該位置384に人体が位置するということは、壁334は少なくとも当該座標の位置あるいはさらにその外側にあることになる。従って、広がり範囲判定部147は、人体の位置384を現時点での壁334の仮位置とする。
すなわち、広がり範囲判定部147は、推定した正面の壁334aをX方向に延長していき、コーナ方向376及びコーナ方向377との交点それぞれを、仮の実コーナ421a及び仮の実コーナ421bと推定する。そして、広がり範囲判定部147は、推定された実コーナ421a及び実コーナ421bからY方向に線336a,335aをひく。広がり範囲判定部147は、この線336a及び線335aを壁336及び壁335の仮位置とする。広がり範囲判定部147は、このような壁の仮位置の推定を領域383で検出された人体毎に行う。
ステップS808における壁及び各コーナの情報は所定時間Δt1ごとに確定される。なお、ステップS809において、広がり範囲判定部147は、直近のm回分(例えば、m=30)の壁及び各実コーナのうち、室内機1側から最も遠い壁の情報で更新する。これにより、所定の基準時以後に取得した情報のうち、室内機1から最も遠い壁及び各コーナの位置がステップS809で格納される。
・・・ (11)
実コーナ421bまでの距離=(L335a 2+L334a 2)1/2
・・・ (12)
広がり範囲判定部147は、同様の手法で、実コーナ422aまでの距離、実コーナ422bまでの距離を算出する。
実位置情報152には、時刻、在室者、実位置情報が格納されている。
時刻は、撮像時刻である。在室者は、在室者の識別情報である。在室者の識別情報は、
人体情報検出部132によって付与された識別情報である。
実位置情報は、図17及び図18の人体位置判定処理によって推定される実際の部屋における人体の位置である。図21の例では、「X1a,Y1a」等となっているが、実際には数値座標が格納される。
次に、人体位置判定処理で推定された人体の位置座標や、広がり範囲判定処理で推定された部屋の実コーナの位置座標から、人の位置を可視化し、リモコンやスマートフォン等の外部情報端末2で表示する方法について説明する。
図22は人と部屋を可視化する(部屋、人の位置、家具の描画)手順を示すフローチャートである。なお、図22に示す処理は、図5におけるステップS112の処理を詳細に説明するためのフローチャートである。
まず、ステップS901において、画像生成部137は、部屋の形状を表示画像に描画する。具体的には、画像生成部137は、ステップS808で確定された部屋の各実コーナの位置を表示画像に割り付け、次にコーナ間を結んで部屋の形状を描画する。
ここで、図23は、家具の検出から描画までの処理手順を示すフローチャートである。
ユーザはエアコンと部屋の位置関係からおおよその家具の位置を把握することが可能と考えるが、机やベッドの位置を検知して同様に表記すると、なおわかりやすくなる。
図23のステップS1001において、画像生成部137は撮像画像を解析して、部屋の内部にあり、かつ同じ高さで、互いに比較的近い(互いの距離が所定の距離以下の)4つのエッジを検出する。
次に、ステップS1002において、画像生成部137は、検出された物体の形状と、予め記憶部138に格納されている物体形状テンプレートと比較する。物体形状テンプレートには、机や、ベッド等に関する形状に関する規格データ等が格納されている。
例えば、規格に従った一般的な机であれば、幅は80〜200cm、奥行き60〜100cm、高さ約70cmであるため、検出されたエッジの長さが、その範囲にあれば、画像生成部137は机であると判定する。また、一般的なベッドは幅97〜140cm、奥行き約195cmであるため、検出されたエッジの長さが、その範囲にあれば、画像生成部137はベッドであると判定する。タンスやテーブル等といった机や、ベッド以外の家具も、同様にすることで検出することができる。
続いて、ステップS1004において、画像生成部137は、部屋における家具の位置を推定する。家具の位置推定は、図17の人体位置判定処理と同様の処理によって推定される。
そして、ステップS1005において、画像生成部137は、検出された机や、ベッドのエッジを、検出された座標に描画する。画像生成部137は、描画した家具形状に「ベッド」や「机」等の家具名称(ラベル)を描画してもよい。
図24は、第1実施形態に係る表示画面の例を示す図である。なお、図21では、4人の在室者(在室者A〜D)が検出された例について記載しているが、ここでの表示画面例では、在室者が1人もしくは2人の場合の例について説明する。また、図24〜図27に示される表示画面は、画像生成部137によって生成された表示画像が表示装置213に表示されているものである。
図24では、在室者Aが符号605の位置に現在いることを示している。
図25では、図24の表示画面に加えて、在室者Bの現在位置が示されている。図25において、図24と同様の構成に対しては、同一の符号を付して説明を省略する。
すなわち、図25では、在室者Aの位置(符号605)とともに、在室者Bの位置(符号721)が示されている。
そして、図24や、図25に示されるように、家具の位置を検出し、その家具の形状が描画されることで、例えば、机付近の位置にずっと人がいれば、子供が勉強していると判断できる等、ユーザは室内のおおよその状況が把握できるようになる。
図26及び図27は、第1実施形態に係る空調制御の例を示す図である。また、図26、図27は、外部情報端末2の表示装置213に表示される画面の例である。
なお、図26及び図27において、図24及び図25と同じ構成については、同じ符号を付して説明を省略する。
図26では、在室者Aが符号605に示す位置にいるとき、室内機1は、符号605の方向に風を送るよう風向きを制御している。つまり、室内機1は矢印651に示す方向に調和空気を送っている。なお、室内機1は矢印651を中心として、所定角度で左右風向板104(図2)をスイングさせてもよい。
また、風向に加えて、在室者の位置によって風速が制御されてもよい。つまり、室内機1から在室者が遠い場合には、制御部130は風速を大きくし(送風ファン103の回転速度を大きくし)、近い場合には風速を小さく(送風ファン103の回転速度を小さく)してもよい。
そして、図5のステップS116において、駆動制御部136が、ステップS115で算出した補正値に基づいて、上下風向板105、左右風向板104を制御して、人の位置へ向かうよう、風向きを制御する。必要に応じて、駆動制御部136は、左右風向板104を左右にスイングさせる。
なお、図24〜図27では、在室者が2人までの例について示しているが、3人以上でも同様に表示及び空調制御が可能である。在室者が3人以上である場合、補正値算出部135は、在室者全員に調和空気が送られるよう、補正値を算出する。
また、図26、図27のように、風向が表示画面に表示されている場合、ユーザは表示装置213に表示されている表示画面を基に、風向を調節する等といった空調調節をしてもよい。空調調節は、リモコンReを介して行われてもよいし、外部情報端末2を介して行われてもよい。
また、本実施形態では、図24〜図27に示す表示画面が室内器1とは別の外部情報端末2の表示装置213に表示されるものとしているが、これに限らず、リモコンReの表示画面に表示されてもよい。
次に、図28〜図36を参照して、本発明の第2実施形態を示す。
第2実施形態では、過去の人体の位置を含める人体の位置履歴(各時刻における人体の位置)を表示する。なお、第2実施形態における空気調和システムA、室内機1、外部情報端末2の構成は、図1〜図4で示されるものと同様であるので、ここでは図示及び説明を省略する。
なお、図28において、図5と異なっている箇所は、ステップS112aと、ステップS113である。その他の処理については、図5と同様の処理であるので、同一のステップ番号を付して説明を省略する。
次に、ステップS113において、画像生成部137は、ステップS112で描画した画像に、ステップS112で推定した過去及び現在の人体の位置を表示画像に描画し、描画した人体の位置を線で結ぶことで、人体の移動を示す動線を表示画像に描画する。人体の位置は、実位置情報152(図21)等に格納されている情報を基に描画される。実位置情報とは、後記する人体位置判定処理によって推定される実際の部屋内における人体の位置である。
次に、人体位置判定処理で推定された人体の位置座標や、広がり範囲判定処理で推定された部屋の実コーナの位置座標から、人の位置を可視化し、リモコンやスマートフォン等の外部情報端末2で表示する方法について説明する。
図29は人と部屋を可視化する(部屋、人の位置履歴、家具の描画)手順を示すフローチャートである。なお、図29に示す処理は、図5におけるステップS112aの処理を詳細に説明するためのフローチャートである。また、図29が図22と異なっているのは、ステップS902aの処理である。それ以外の処理は図22と同様であるので、同一のステップ番号を付して説明を省略する。
まず、画像生成部137は、例えば、Δt1分間隔で過去5回分の人体の位置履歴を描画し、直近の時刻における位置にアイコンを描画する等すればよい。
どのくらいの間隔で人体の位置を描画するか、あるいは、過去どのくらいの時間までの位置履歴を表示するかはユーザが設定可能としてもよい。
図30は、第2実施形態に係る表示画面の例を示す図である。なお、図21では、4人の在室者(在室者A〜D)が検出された例について記載しているが、ここでの表示画面例では、在室者が1人もしくは2人の場合の例について説明する。また、図30〜図36に示される表示画面は、画像生成部137によって生成された表示画像が表示装置213に表示されているものである。
図30の例では、部屋を平面図で表現し、三角の印と、三角の印近くの丸で囲まれた数字は在室者Aが撮像された位置を過去から順に配置したものであることを示している。符号605が三角ではなく、丸で示されているのは、符号605が現在位置であることを示しているためである。丸で囲まれた数字において、3の次が7となっているのは、この間にΔt1×3時間の時間が経過していることを示している。
図31では、図30の表示画面に加えて、在室者Bの行動が示されている。図31において、図7と同様の構成に対しては、同一の符号を付して説明を省略する。
図31では、在室者Bの過去の動きを示す動線が、在室者Aの動線とともに示されている。在室者Bは、符号701の位置から、符号702の位置に移動した後、符号702の位置でΔt1×3の時間とどまったのち、符号703の位置へ移動し、現在に至っている。なお、在室者Bは、符号703の位置でΔt1×4の時間とどまっている。
また、星印(符号711)は在室者Bの平均位置であり、これは表示画面上に表示された符号701〜703(丸の中の数字で1〜8)の位置座標が平均されることで算出される。
さらに、図30や、図31で示すように、在室者の位置履歴を時系列的につないだ動線として表示することで、在室者の行動が視覚的によりわかりやすくなる。
そして、図30や、図31で示すように、在室者の位置履歴の平均値が表示されることで、在室者の行動の傾向がよりわかりやすくなる。例えば、外部からの侵入者の位置履歴の平均値が貴重品をおいている箇所近辺であれば、その侵入者は貴重品を窃盗する目的であることがわかる。また、子供の位置履歴の平均値が机近辺にあれば、その子供はおおよそ勉強していることがわかる。
図32では、図30の表示画面における動線の代わりに、人体の動作状態に関する情報としてベクトルが表示されている。符号については、図30の表示画面と同様であるため、ここでは説明を省略する。
ベクトルの方向は、移動方向であり、次の時刻における位置を示す。例えば、符号601におけるベクトルの方向は、符号601の移動方向である。
また、ベクトルの長さは、図9の移動情報151に格納されている移動量に応じた長さとなっている。
ここで、符号603からベクトルがでていないのは、前記したように符号603と符号604との間が時系列的に連続していないためである。
図33に示す表示画面では、在室者の位置に、在室者が該位置にいた時刻を示している(符号801)。
このような時刻は、図21に示す実位置情報152等から取得されるものである。
図34〜図36は、第2実施形態に係る空調制御の例を示す図である。また、図34〜図36は、外部情報端末2の表示装置213に表示される画面の例である。
図34では、在室者Aが符号601a〜605aに示すような行動を行っているとき、室内機1は、符号601a〜605aの方向に風を送るよう風向きを制御している。つまり、室内機1は矢印901及び矢印902の間で左右風向板104をスイングさせている。
また、図36では、室内機1が、在室者Aの平均位置(符号611)及び在室者Bの平均位置(符号711)へ向けて、交互に調和空気を送るよう、風向きを制御している。この場合、室内機1は、符号611へ向けた方向(矢印921)と、符号711へ向けた方向(符号922)との間を交互にスイングさせる。
なお、図35において、図30と同様の要素については同一の符号を付して説明を省略する。同様に、図36において、図31と同様の要素については同一の符号を付して説明を省略する。
図35及び図36に示すように、在室者の平均位置に向けて調和空気が送られるよう、風向き制御が行われることにより、図34に示すように大きなスイングを行わなくても、在室者がよくいると推定される場所に調和空気を送ることができる。このようにすることにより、図35に示す例より効率的に、在室者の動きを考慮した空気調和が可能となる。
そして、図5のステップS116において、駆動制御部136が、ステップS115で算出した補正値に基づいて、上下風向板105、左右風向板104を制御して、人の位置の平均値へ向かうよう、風向きを制御する。必要に応じて、駆動制御部136は、左右風向板104を左右にスイングさせる。
また、風向に加えて、在室者の位置によって風速が制御されてもよい。つまり、室内機1から在室者が遠い場合には、制御部130は風速を大きくし(送風ファン103の回転速度を大きくし)、近い場合には風速を小さく(送風ファン103の回転速度を小さく)してもよい。
また、図34〜図36のように、風向が表示画面に表示されている場合、ユーザは表示装置213に表示されている表示画面を基に、風向を調節する等といった空調調節をしてもよい。空調調節は、リモコンReを介して行われてもよいし、外部情報端末2を介して行われてもよい。
以上、本実施形態に係る空気調和システムAについて説明したが、本実施形態発明の実施態様はこれらの記載に限定されるものではなく、種々の変更等を行うことができる。
本実施形態では、人体検出処理と顔検出処理とを経時的に切替えて実行しているが(図13のステップS104,S105を参照)、これに限らない。例えば、人体検出処理と顔検出処理とを並列的に実行してもよい。この場合、制御部130は、人体検出処理によって検出される人体頭部と、顔検出処理によって検出される顔との位置関係に基づいて人体の同一性を、所定時間Δt1ごとに判定する。そして、それぞれの人体の顔情報(人体のみを検出できた場合には人体情報)に基づいて移動量及び活動量を算出する。
これによって、人体検出処理と顔検出処理とを経時的に切り替える場合と比較して、顔又は人体を検出する時間間隔が小さくなり、処理の高速化が可能になる。また、人体検出と、顔検出との時間差が小さくなることにより、人体情報と、顔情報との対応付けの精度を向上させることができる。
これによって、顔検出処理における処理負荷123の軽減が可能となる。
また、前面パネル106に複数の撮像装置110を設置してもよい。
なお、活動量とは、移動量を積算したものであり、その在室者の活動の度合いを示すものである。活動量は、特開2013−253717号公報に記載されている技術である。
また、本実施形態では部屋の形状を平面図としたが、鳥瞰図として表示されてもよい。
さらに、本実施形態では、人体の位置履歴、動線、平均位置が同じ画面上に表示されているが、これに限らず、人体の位置履歴のみ、平均位置のみが表示されるようにしてもよい。
また、リモコンReが外部情報端末2の機能を有していてもよい。
そして、本実施形態では、図23のステップS1002における家具の種類の判別で、画像生成部137が検出したエッジと物体形状テンプレートとを比較することで、家具の種類を判別しているが、これに限らない。例えば、外部情報端末2に表示された表示画面をみたユーザが、手入力で家具の名称を入力してもよい。
また、各実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には、ほとんどすべての構成が相互に接続されていると考えてよい。
Re リモコン
1 室内機
2 外部情報端末
3 室外機
110 撮像装置
123 負荷
130 制御部
131 記憶処理部
132 人体情報検出部
133 間取り検出部
134 移動量算出部
135 補正値算出部(空調制御部)
136 駆動制御部(空調制御部)
137 画像生成部
138 記憶部
141 人体検出部
142 顔検出部
145 コーナ方向検出部
146 人体位置判定部(人体位置検出部)
147 広がり範囲判定部
151 移動情報
152 実位置情報
213 表示装置(表示部)
221 表示処理部
Claims (8)
- 空気調和の対象となる室内の間取りを検出する間取り検出部と、
人体の位置を検出する人体位置検出部と、
前記人体位置検出部が検出した人体の位置及び前記間取り検出部が検出した間取りを表示する表示部と、
を有することを特徴とする空気調和システム。 - 前記人体の位置に基づいて、空調制御を行う空調制御部
を有することを特徴とする請求項1に記載の空気調和システム。 - 前記表示部は、
前記人体位置検出部が検出した、各時刻における人体の位置から生成した人体の移動に関する情報を表示する
ことを特徴とする請求項1に記載の空気調和システム。 - 前記各時刻における人体の位置に基づいて、空調制御を行う空調制御部
を有することを特徴とする請求項3に記載の空気調和システム。 - 前記表示部は、
前記人体位置検出部が検出した、前記各時刻における人体の位置から算出した人体の平均位置を表示する
ことを特徴とする請求項1に記載の空気調和システム。 - 前記人体の平均位置に基づいて、前記環境内の空調制御を行う空調制御部
を有することを特徴とする請求項5に記載の空気調和システム。 - 少なくとも前記表示部が、室内機とは別の装置に備えられている
ことを特徴とする請求項1から請求項6のいずれか一項に記載の空気調和システム。 - 室外機と、
空調制御を行う空調制御部を備えるとともに、前記人体位置検出部を備える室内機と、
前記表示部を備える外部情報端末と、
を有することを特徴とする請求項1から請求項7のいずれか一項に記載の空気調和システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014141439A JP2016017707A (ja) | 2014-07-09 | 2014-07-09 | 空気調和システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014141439A JP2016017707A (ja) | 2014-07-09 | 2014-07-09 | 空気調和システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016017707A true JP2016017707A (ja) | 2016-02-01 |
Family
ID=55233047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014141439A Pending JP2016017707A (ja) | 2014-07-09 | 2014-07-09 | 空気調和システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016017707A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019189179A1 (ja) * | 2018-03-30 | 2019-10-03 | ダイキン工業株式会社 | 情報管理システム |
JP2019185724A (ja) * | 2018-03-30 | 2019-10-24 | ダイキン工業株式会社 | 情報管理システム |
CN110822651A (zh) * | 2018-08-07 | 2020-02-21 | 青岛海尔空调器有限总公司 | 移动蓄能式空调系统及其控制方法 |
WO2021044836A1 (ja) * | 2019-09-03 | 2021-03-11 | パナソニックIpマネジメント株式会社 | 顔ケア装置 |
CN114719421A (zh) * | 2022-05-18 | 2022-07-08 | 宁波奥克斯电气股份有限公司 | 一种空调智能控制方法、存储介质及空调器 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013047581A (ja) * | 2011-08-29 | 2013-03-07 | Mitsubishi Electric Corp | 空気調和機 |
JP2014047998A (ja) * | 2012-09-03 | 2014-03-17 | Hitachi Appliances Inc | 空気調和機 |
-
2014
- 2014-07-09 JP JP2014141439A patent/JP2016017707A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013047581A (ja) * | 2011-08-29 | 2013-03-07 | Mitsubishi Electric Corp | 空気調和機 |
JP2014047998A (ja) * | 2012-09-03 | 2014-03-17 | Hitachi Appliances Inc | 空気調和機 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019189179A1 (ja) * | 2018-03-30 | 2019-10-03 | ダイキン工業株式会社 | 情報管理システム |
JP2019185724A (ja) * | 2018-03-30 | 2019-10-24 | ダイキン工業株式会社 | 情報管理システム |
CN110822651A (zh) * | 2018-08-07 | 2020-02-21 | 青岛海尔空调器有限总公司 | 移动蓄能式空调系统及其控制方法 |
WO2021044836A1 (ja) * | 2019-09-03 | 2021-03-11 | パナソニックIpマネジメント株式会社 | 顔ケア装置 |
CN114719421A (zh) * | 2022-05-18 | 2022-07-08 | 宁波奥克斯电气股份有限公司 | 一种空调智能控制方法、存储介质及空调器 |
CN114719421B (zh) * | 2022-05-18 | 2024-01-19 | 宁波奥克斯电气股份有限公司 | 一种空调智能控制方法、存储介质及空调器 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5819271B2 (ja) | 空気調和機 | |
US9747392B2 (en) | System and method for generation of a room model | |
US8730164B2 (en) | Gesture recognition apparatus and method of gesture recognition | |
US10060730B2 (en) | System and method for measuring by laser sweeps | |
JP5815490B2 (ja) | 空気調和機 | |
JP6596269B2 (ja) | 空気調和機 | |
JP2016017707A (ja) | 空気調和システム | |
JP6335425B2 (ja) | 空気調和機 | |
US20150032260A1 (en) | Auto-cleaning system, cleaning robot and method of controlling the cleaning robot | |
JP2010190432A (ja) | 空間認識装置及び空気調和機 | |
JP6368552B2 (ja) | 空気調和機 | |
JP2017053603A (ja) | 空気調和機 | |
JP2015203557A (ja) | 空気調和機 | |
JP2015052431A (ja) | 空気調和機の室内機および空気調和機 | |
JP2013024534A (ja) | 状況認識装置 | |
JP2016130600A (ja) | 空気調和機、その外部端末装置および空気調和システム | |
JP2017020775A (ja) | 吸気装置および吸気方法 | |
JP2014020569A (ja) | 空気調和機 | |
JP2015190666A (ja) | 空気調和機の室内機及びこれを用いた空気調和機 | |
JP2010216713A (ja) | 空気調和機 | |
JP6408300B2 (ja) | 空気調和機 | |
JP2015048956A (ja) | 空気調和機 | |
JP2016044863A (ja) | 空気調和機 | |
KR102223178B1 (ko) | 공기조화기 및 그의 제어방법 | |
JPWO2018211592A1 (ja) | 空気調和システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20160407 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170210 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20171011 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180220 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180828 |