JP6428144B2 - エリア情報推定装置、エリア情報推定方法、および空気調和装置 - Google Patents

エリア情報推定装置、エリア情報推定方法、および空気調和装置 Download PDF

Info

Publication number
JP6428144B2
JP6428144B2 JP2014213240A JP2014213240A JP6428144B2 JP 6428144 B2 JP6428144 B2 JP 6428144B2 JP 2014213240 A JP2014213240 A JP 2014213240A JP 2014213240 A JP2014213240 A JP 2014213240A JP 6428144 B2 JP6428144 B2 JP 6428144B2
Authority
JP
Japan
Prior art keywords
person
image
area
detection
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014213240A
Other languages
English (en)
Other versions
JP2016080550A (ja
Inventor
中條 秀樹
秀樹 中條
世利也 井口
世利也 井口
誠一 真鍋
誠一 真鍋
青木 博松
博松 青木
俊 酒井
俊 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2014213240A priority Critical patent/JP6428144B2/ja
Priority to KR1020150116539A priority patent/KR20160045556A/ko
Priority to CN201510568526.4A priority patent/CN105528571A/zh
Priority to EP15185277.9A priority patent/EP3029604B1/en
Priority to US14/865,114 priority patent/US9715627B2/en
Publication of JP2016080550A publication Critical patent/JP2016080550A/ja
Application granted granted Critical
Publication of JP6428144B2 publication Critical patent/JP6428144B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/30Control or safety arrangements for purposes related to the operation of the system, e.g. for safety or monitoring
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/50Control or safety arrangements characterised by user interfaces or communication
    • F24F11/56Remote control
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/62Control or safety arrangements characterised by the type of control or by internal processing, e.g. using fuzzy logic, adaptive control or estimation of values
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/62Control or safety arrangements characterised by the type of control or by internal processing, e.g. using fuzzy logic, adaptive control or estimation of values
    • F24F11/63Electronic processing
    • F24F11/64Electronic processing using pre-stored data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/70Control systems characterised by their outputs; Constructional details thereof
    • F24F11/72Control systems characterised by their outputs; Constructional details thereof for controlling the supply of treated air, e.g. its pressure
    • F24F11/74Control systems characterised by their outputs; Constructional details thereof for controlling the supply of treated air, e.g. its pressure for controlling air flow rate or air velocity
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/70Control systems characterised by their outputs; Constructional details thereof
    • F24F11/72Control systems characterised by their outputs; Constructional details thereof for controlling the supply of treated air, e.g. its pressure
    • F24F11/79Control systems characterised by their outputs; Constructional details thereof for controlling the supply of treated air, e.g. its pressure for controlling the direction of the supplied air
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/70Control systems characterised by their outputs; Constructional details thereof
    • F24F11/80Control systems characterised by their outputs; Constructional details thereof for controlling the temperature of the supplied air
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0205Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric not using a model or a simulator of the controlled system
    • G05B13/021Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric not using a model or a simulator of the controlled system in which a variable is automatically adjusted to optimise the performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2120/00Control inputs relating to users or occupants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Description

本発明は、カメラの画像からセンシングエリアに関する情報を推定する技術に関する。
昨今、カメラで撮影した画像から人を検出し、その検出結果を基に人の動線、床面、部屋や通路の形状などを推定したいとのニーズが高まっている。この種の技術は、監視カメラや画像センサにおいてセンシングエリアの構造認識に応用されたり、最近では、家電機器などにも組み込まれ始めている。
例えば、特許文献1には、カメラの画像を用いて人が移動しているか否かを検出し、人が移動している場合には当該人物の身長推定を行ったり、人物の移動履歴から部屋内の障害物を検出すること、さらには、障害物の検出結果を空気調和装置(エアコン)の空調制御に利用することが開示されている。また、特許文献2には、複数のフレーム画像間での頭頂部の座標変化を監視することで、人の静止/移動の判定や姿勢の判定を行う方法が提案されている。また、特許文献3には、画像中の頭部の検出結果を用いて、身長を推定する方法が提案されている。
特開2013−24534号公報 特開2002−197463号公報 特開2013−37406号公報
カメラの画像から人の存在位置(実世界上の位置)を計算する手法の代表的なものとしては、(1)画像中の人のサイズから奥行距離(カメラと人の間の距離)を推定し、人の存在位置を計算する手法、(2)2台のカメラを用いて2方向から人を撮影し、三角測量の原理によって人の存在位置を計算する手法、などが知られている。
しかしながら、これらの手法には次のような問題がある。(1)の手法では、画像中の人のサイズを基準に奥行距離を推定するが、サイズの検出結果は画像品質、解像度、人の体格や体形、人の姿勢や向きなどよるバラツキが大きいために、距離推定精度が安定しない。一方、(2)の手法では、カメラが2台必要なために、単眼カメラの装置に比べて装置コストが高くなる。また、2台のカメラの画像をそれぞれ処理し、それらの情報を組み合わせた上で結果を出すことから、処理が複雑となる。
本発明は上記実情に鑑みなされたものであり、カメラの画像から人を検出し、その検出結果を基にセンシングエリアに関する情報を推定する処理において、簡易な方法で推定精度の向上を図る技術を提供することを目的とする。
上記目的を達成するために、本発明では以下の構成を採用する。
本発明の第一態様に係るエリア情報推定装置は、センシングエリアを撮影するカメラと、前記カメラの画像から人を検出する人検出部と、前記人検出部によって人が検出された前記画像上の座標に基づき、当該人の前記センシングエリア内の存在位置を計算する位置
算出部と、を有し、前記人検出部は、画像上の座標とサイズの関係が所定の条件を満たさない人を、検出の対象から除外することを特徴とする。
この構成によれば、画像上の座標とサイズの関係が所定の条件を満たさない人(推定精度を低下させるデータ)が除外されるため、センシングエリアに関する情報を精度良く推定することが可能となる。また、画像上の座標とサイズの関係が所定の条件を満たすか否かを評価・判定するだけでよいので、きわめて簡易な処理で済み、高速処理が容易に実現できる。
前記人検出部は、人の上半身を検出するものであって、前記位置算出部は、前記人検出部によって検出された人の上半身の画像上の座標及びサイズから当該人の足元の画像上の座標を求め、前記足元の画像上の座標から当該人の前記センシングエリア内の存在位置を計算するとよい。この構成によれば、足元の座標(つまり、床面に接する点の座標)から存在位置を計算するため、距離精度を向上することができる。よって、センシングエリアに関する情報を精度良く推定することが可能となる。
前記人検出部は、検出された人が座位である場合と立位である場合とで、前記所定の条件を異ならせるとよい。座位の場合と立位の場合で画像上の座標が異なるため、それに合わせて所定の条件を変更することで、座位の人と立位の人の両方の存在位置を精度良く求めることができる。
前記人検出部は、人の上半身を検出する上半身検出と、人の全身を検出する全身検出とを行い、上半身検出と全身検出の両方で検出された場合に当該人が立位であると判断し、上半身検出で検出されるが全身検出で検出されなかった場合に当該人が座位であると判断するとよい。これにより、簡易な方法で座位の人と立位の人を分類することができる。
また、本発明の第二態様に係るエリア情報推定装置は、センシングエリアを撮影するカメラと、前記カメラの画像から人を検出する人検出部と、前記人検出部によって人が検出された前記画像上の座標に基づき、当該人の前記センシングエリア内の存在位置を計算する位置算出部と、を有し、前記人検出部は、画像中に全身が写り且つ立位の人のみを、検出の対象とすることを特徴とする。この構成によれば、全身検出の結果のみを用いることで、座っている人や身体の一部が隠れている人などを検出対象から除外することができる。よって、センシングエリアに関する情報を精度良く推定することが可能となる。
前記位置算出部は、前記人検出部によって検出された人の足元の画像上の座標から当該人の前記センシングエリア内の存在位置を計算するとよい。この構成によれば、足元の座標(つまり、床面に接する点の座標)から存在位置を計算するため、距離精度を向上することができる。よって、センシングエリアに関する情報を精度良く推定することが可能となる。
また、本発明の第三態様に係るエリア情報推定装置は、センシングエリアを撮影するカメラと、前記カメラの画像から人を検出する人検出部と、前記人検出部によって人が検出された前記画像上の座標に基づき、当該人の前記センシングエリア内の存在位置を計算する位置算出部と、を有し、前記人検出部は、人の上半身を検出するものであって、前記位置算出部は、前記人検出部によって検出された人の上半身の画像上の座標及びサイズから当該人の足元の画像上の座標を求め、前記足元の画像上の座標から当該人の前記センシングエリア内の存在位置を計算することを特徴とする。この構成によれば、足元の座標(つまり、床面に接する点の座標)から存在位置を計算するため、距離精度を向上することができる。よって、センシングエリアに関する情報を精度良く推定することが可能となる。
前記位置算出部は、上半身のサイズに対する比率計算によって足元の座標を求めるとよい。一般的に、人の身体の寸法比率は概ね同じであるため、上半身のサイズに対する比率計算だけでも妥当な推定結果を得ることができるからである。これにより、簡易な処理を実現できる。
前記センシングエリア内で所定の期間内に検出された人の存在位置の分布に基づき、前記センシングエリア内で人が存在し得る存在可能エリアを推定する推定部をさらに有するとよい。また、前記推定部は、検出された存在位置のそれぞれを確率密度分布で平面図上に重ね合せていき、累積確率が所定のレベル以上になったエリアを前記存在可能エリアと判定するとよい。この構成によれば、検出された存在位置を確率密度分布で捉えることで、検出誤差の影響を低減することができ、人の存在可能エリアの推定を精度良く行うことが可能となる。
なお、本発明は、上記構成ないし機能の少なくとも一部を有するエリア情報推定装置として捉えることができる。また、本発明は、このエリア情報推定装置を有する空気調和装置、監視カメラ、画像センサ、ロボットビジョン、コンピュータビジョン、家電機器として捉えることもできる。また、本発明は、上記処理の少なくとも一部を含むエリア情報推定方法、又は、かかる方法をコンピュータに実行させるためのプログラム、又は、そのようなプログラムを非一時的に記録したコンピュータ読取可能な記録媒体として捉えることもできる。上記構成及び処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。
本発明によれば、カメラの画像から人を検出し、その検出結果を基にセンシングエリアに関する情報を推定する処理において、簡易な方法で推定精度の向上を図ることができる。
エアコン装置の機能ブロックを示す図。 エアコン装置の外観を示す図。 空調制御処理の全体の流れを示すフローチャート。 画像からの人検出処理および存在位置の算出処理を説明する図。 位置算出部による座標計算の具体例を示す図。 所定の期間に蓄積された存在位置情報を部屋の平面図にプロットした図。 体形が異なる場合の推定精度の低下について説明する図。 検出座標と検出サイズの相関関係について説明する図。 第1実施形態における人検出処理の流れを示すフローチャート。 第2実施形態における人検出部と位置算出部の処理の流れを示す図。 第3実施形態における人検出部と位置算出部の処理の流れを示す図。 第4実施形態における人検出処理を説明する図。 第4実施形態における人検出処理の流れを示すフローチャート。 第5実施形態における推定処理を説明する図。
以下に図面を参照して、この発明を実施するための好ましい形態を例示的に詳しく説明する。ただし、以下の実施形態に記載されている構成部品の寸法、材質、形状、その相対配置などは、特に記載がない限りは、この発明の範囲をそれらのみに限定する趣旨のものではない。
<第1実施形態>
(装置構成)
図1および図2を参照して、本発明の実施形態に係る空気調和装置(以下、「エアコン装置」と称する)の全体構成について説明する。図1は、エアコン装置の機能ブロックを示す図であり、図2は、エアコン装置の外観を示す図である。このエアコン装置1は、人検出機能を用いたエリア情報推定装置2を備えており、エリア情報推定装置2によって推定された部屋ないし空間に関する情報(以下、「エリア情報」又は「空間情報」とも称す)をもとに空調制御を実施する機能を有している。
エアコン装置1は、主な構成として、エリア情報推定装置2、エリア情報記憶部3、空調制御部4、温度センサ5、熱交換器6、送風ファン7を有している。エリア情報記憶部3には、エアコン装置1が設置された部屋のエリア情報が記憶される。エリア情報推定装置2は、カメラ21、人検出部22、位置算出部23、位置記憶部24、推定部25を有している。
空調制御部4は、プロセッサやメモリなどから構成され、プロセッサがプログラムを実行することにより、所望の温度、風向、風量の運転条件を決定し、この運転条件で動作するように熱交換器6や送風ファン7などを制御する。空調制御部4は、運転条件を決定する際に、リモコン8から入力される設定条件(設定温度など)や温度センサ5から得られる室内温度に加えて、エリア情報推定装置2によって推定されエリア情報記憶部3に登録されたエリア情報も考慮して運転条件を決定することができる。また、エリア情報推定装置2は人検出機能を有しているので、空調制御部4は、リアルタイムの人検出結果も考慮して運転条件を決定することもできる。
温度センサ5は、例えば、赤外線センサなどを用いて室内の温度を取得する。熱交換器6は、室外機(不図示)と接続されて冷凍サイクルを構成し、熱交換器6内に取り込んだ空気を暖めたり冷やしたりする。送風ファン7は、気流を発生させる装置であり、室内の空気を循環させる。送風ファン7は、風量および風向(上下方向および左右方向)を調整可能である。
エリア情報推定装置2は、推定対象となるエリア(以下、「センシングエリア」と称す)を撮影した画像から人を検出して、センシングエリア内での人の存在位置を記録していき、その存在位置の分布に基づいてエリア情報を生成するユニットである。本実施形態では、エリア情報として、センシングエリア内において床面が露出している領域(以下、「床面領域」と称す)を推定する。ここで、「床面が露出」とは、什器、柱、壁などの人の通行や活動を妨げる物体が存在しない状態をいう。言い換えれば、床面領域は、センシングエリア内において人が存在(通行)し得る領域(以下、「存在可能エリア」とも称す)である。このような床面領域を考慮した空調制御を行うことにより、効率的な暖房または冷房を実現することができる。
エリア情報推定装置2は、プロセッサ、メモリ、カメラ21などを備えるコンピュータにより構成され、プロセッサがプログラムを実行することによって人検出部22、位置算出部23、位置記憶部24、推定部25などの機能を実現する。なお、これらの機能部のうち一部または全部をASICやFPGA回路で構成してもよい。エリア情報推定装置2は、例えば、プロセッサ、各種プログラムを格納したメモリ、カメラモジュール、外部I/Fを基板上に搭載した機器組み込み型のボードコンピュータとして提供される。
カメラ21は、図2(a)に示すようにエアコン装置1の前面に取り付けられており、センシングエリア(例えば部屋)の内部を撮影し、画像を取得することが可能である。本実施形態のカメラ21の撮影方向(光軸方向)は、図2(b)に示すように、水平面に対し、所定の角度だけ下向きの方向であり、センシングエリアを斜め上方から撮影できるよ
うになっている。このような設定によりエアコン装置1に近いエリアをカメラ21の画角内(視野内)に入れることが可能となる。ただし、カメラ21の光軸方向を水平面に対し下向きに設定することは必須でなく、例えば光軸方向を水平、又は、水平面よりもやや上向きに設定してもよい(すなわち、カメラ21の画角内(視野内)に撮影すべきエリアが収まっていればよい)。カメラ21は定期的に撮影(画像の取り込み)を行い、撮影画像に基づいて人検出部22による人検出処理が実施される。撮影の間隔は任意に設定することができる。例えば、数秒から数分といった所定の間隔で撮影してもよいし、時間帯によって撮影間隔を変えたり、人を検出したら撮影間隔を短くするような制御を行ってもよい。
人検出部22は、カメラ21によって撮影された画像から人を検出する機能を有する。画像から人を検出する手法としては、例えば、目や口元などの局所的な濃度差や髪色・肌色などの色特徴に基づいて顔らしい部分を検出する「顔検出」、シルエット(外形状)に基づいて頭部、上半身、もしくは全身を検出する「人体検出」など、様々なアルゴリズムが提案されている。人検出部22はいずれのアルゴリズムを採用してもよいし、複数種類のアルゴリズムを組み合わせてもよい。顔検出は人以外の物を誤検出する可能性が低いという利点がある。一方の人体検出(シルエット検出)は、人の向きや姿勢に対するロバスト性が高いという利点がある。なお、人体検出において頭部、上半身、全身のいずれを検出対象とするかは、判別器の学習に用いるデータの与え方による。すなわち、上半身検出を行うのであれば、上半身(例えば胸より上)が写った教師画像を用いて、上半身のシルエットの特徴を判別器に学習させる。また、全身検出を行うのであれば、頭部から足元までが写った教師画像を用いて学習を行えばよい。このとき、前向き、斜め向き、横向き、後ろ向き、直立姿勢、歩行姿勢など様々な向き・姿勢の教師画像を学習に用いることで、姿勢変化に対しロバストな人体検出が実現できる。
位置算出部23は、人検出部22によって人が検出された画像上の座標に基づき、その人のセンシングエリア内の存在位置を計算する機能を有する。詳しくは、位置算出部23は、カメラ21の画角や設置角度などの既知パラメータを用いた幾何学計算により、画像座標(X,Y)を実空間における床面上の位置座標(T,L)へと変換する処理を行う。本実施形態では、画像座標系は、画像の下端の中心を原点Oとし、画像の水平方向にX軸、画像の垂直方向にY軸をとる。また、床面座標系は、図2に示すように、カメラ21から床面に降ろした垂線の足を原点O、カメラ21の光軸を床面に投影した直線をL軸とし、L軸に直交するようにT軸をとる。つまり、Lは光軸方向の水平距離、Tは光軸に直交する方向の水平距離である。
位置記憶部24は、位置算出部23によって算出された人の存在位置(T,L)を記憶するデータベースである。位置記憶部24には、人の存在位置の情報だけでなく、検出時刻などの付加情報を関連付けて記憶してもよい。人検出処理をある程度の期間(例えば数時間から数日間)継続的に実行することで、位置記憶部24には、当該期間内に取得された人の存在位置の分布(履歴)が蓄積される。
推定部25は、位置記憶部24に蓄積された人の存在位置の分布に基づいて、床面領域(人の存在可能エリア)を推定する機能を有する。部屋内に什器などが設置されている場合、人が通行(存在)し得るのは什器などが設定されていない領域、すなわち床面領域に限られる。したがって、ある期間に蓄積された人の存在位置の分布を解析することで、部屋内の床面領域を推定することができる。推定部25により得られたエリア情報は、エリア情報記憶部3に格納されて、空調制御部4の空調制御に利用される。
(処理フロー)
次に、図3のフローチャートに沿って、エアコン装置1で行われる空調制御処理の流れ
について説明する。図3は、空調制御処理の全体の流れを示すフローチャートである。
まず、カメラ21が、エアコン装置1が設置されている部屋(センシングエリア)の俯瞰画像を取り込む(ステップS10)。本実施形態では水平画素数Hp=1200、垂直画素数Vp=1600のグレースケール画像が取り込まれる。
次に、人検出部22が画像から人の検出を行う(ステップS11)。図4(a)は、一枚の画像から三人の人物41a、41b、41cが検出された検出結果例を示している。人検出部22は、検出された各人物41a〜41cの画像上の座標およびサイズを取得する。本実施形態では、人検出アルゴリズムとして上半身検出(胸から上の部分のシルエットによる人体検出)を用い、検出された各人物41a〜41cの上半身を囲む正方形の中心座標(Xc,Yc)と検出矩形のサイズ(一辺のピクセル数)Sとが出力される。以下、検出された人物を囲む矩形を「検出矩形」と呼び、検出矩形の中心座標(Xc,Yc)を「検出座標」とも呼ぶ。
次に、位置算出部23が、検出された各人物41a〜41cの検出座標(Xc,Yc)およびサイズSに基づいて、各人物41a〜41cのセンシングエリア内の存在位置(T,L)を求める(ステップS12)。図4(b)は、検出された各人物41a〜41cの存在位置(T,L)の計算例を示している。図4(b)は床面を鉛直上方からみた平面図に対応し、人物41a、41b、41cの順にカメラ21よりも遠方に存在することが示されている。
図4と図5を用いて、位置算出部23による座標計算の具体例を説明する。ここでは、画像の水平画素数Hp[pixel]、垂直画素数Vp[pixel]、人体幅W[mm]、カメラの見下ろし角度(水平面と光軸のなす角度)α[度]、カメラ水平画角θ[度]、カメラ垂直画角β[度]が既知パラメータとして与えられるものとする。なお、Hp,Vp,βはカメラ21の仕様から定まり、αはエアコン装置1に対するカメラ21の設置角度から定まる。また、Wは成人の平均的な肩幅の値(例えば450mm)を用いればよい。
カメラ21から光軸方向距離D[mm]の位置に人物が存在したときに、当該人物の検出座標が(Xc,Yc)、サイズがS[pixel]であったとする。そうすると、カメラ21から距離Dだけ離れた位置においては、画像上のサイズ[pixel]と実空間上のサイズ[mm]の比がS[pixel]:W[mm]となるから、当該人物の水平位置T[mm]は、図5(a)に示すように、
T=(X2×W)/S
と求まる。ただし、X2は、画像の中心(0,Vp/2)から人物の検出座標(Xc,Yc)までの水平方向ピクセル数である(X2=Xc)。
次に奥行位置L[mm]の導出について述べる。図5(b)に示すように、カメラ21から距離Dだけ離れた位置において、垂直画角β内に収まる物体側の垂直距離をV[mm]とおくと、
tan(β/2)=(V/2)/D
が成り立つ。ここで、カメラ21から距離Dだけ離れた位置においては、
Vp/V=S/W
が成り立つから、両式からVを消して整理すると、
D=(Vp×W)/(2×S×tan(β/2))
が得られる。したがって、図5(b)に示す奥行位置L1[mm]は、
L1=D×cosα
=(Vp×W×cosα)/(2×S×tan(β/2))
と求まる。
また、カメラ21から距離Dだけ離れた位置において、画像中心から人物の検出座標までの垂直方向ピクセル数をY2(=Yc−Vp/2)、実空間での垂直方向距離をV2[mm]とおくと、
Y2/V2=S/W
が成り立つから、図5(b)に示す奥行位置L2[mm]は、
L2=V2×sinα=(Y2×W×sinα)/S
と求まる。
以上より、人物の奥行位置L[mm]は、
L=L1+L2
=(Vp×W×cosα)/(2×S×tan(β/2))+(Yc×W×sinα)/S
として計算できる。
ここで述べた座標計算手法は、人体幅Wが一定値であると仮定し、画像上のサイズSに基づき当該人物の平面位置を推定する手法である(つまり、サイズが小さいほどカメラ21から離れていると仮定する)。この手法は、カメラ21の設置高さ(床面からの高さ)が不明でも、存在位置(T,L)を計算できるという利点がある。
上記計算により、画像から検出された各人物41a〜41cの存在位置(T,L)が得られたら、図3のステップS13に進む。ステップS13では、位置算出部23が、各人物41a〜41cの位置座標を位置記憶部24に格納する。ステップS10からステップS13の処理は、繰り返し実行される。したがって、複数の検出結果における人の存在位置が位置記憶部24に蓄積されることになる。
所定の期間だけステップS10からステップS13の処理を繰り返したら、位置記憶部24に蓄積された人の存在位置の情報に基づいて、推定部25が床面領域(人の存在可能エリア)を推定する(ステップS14)。図6は、位置記憶部24に蓄積された存在位置の情報を部屋の床面を示す平面図上にプロットした模式図である。図6のバツ印(×)の位置において人が検出されたことを示し、バツ印の分布により、部屋内のどの領域で人が活動しているかが分かる。つまり、バツ印がプロットされた領域が、人が通行(存在)し得る床面領域とみなすことができ、一方、バツ印がまったくプロットされていない領域は、什器などが設置された領域又はデッドスペースであり、人が通行(存在)することはほとんど無い領域とみなすことができる。図6においてハッチングで示した領域が、推定された床面領域である。このようにして得られたエリア情報は、エリア情報記憶部3に格納される。
ステップS15では、取得されたエリア情報に基づいて、空調制御部4が空調制御を実施する。例えば、人がよく通行(存在)する場所に優先的に風を送ることによって、快適性を効率的に向上させる制御を行うことができる。あるいは、部屋形状に基づき風の流れを予測して、風通しがよくなるように風向きなどを制御してもよい。
(精度向上のための工夫)
上記方法は多くの場合に良好な結果を得ることができるが、標準体形から大きく外れた人が画像に写っている場合に、エリア情報の推定精度の低下を招く可能性がある。成人の平均的な人体幅Wを基に距離計算を行っているため、図4のように、「奥行位置が遠い人ほど画像上のサイズが小さい」という関係が保たれている場合は精度が期待できるが、図7のように、小柄な人物71aは実際の距離(標準体形の人物70aの距離)よりも遠く
に、逆に大柄な人物71bは実際の距離よりも近くにいると誤認識されてしまうからである。もちろんある程度の誤差は許容しても構わないが、例えば、床面上の距離で1mを超えるような誤差が生じると、アプリケーションによっては誤差を無視できない場合がある。
そこで本実施形態の人検出部22は、検出対象(エリア情報の推定に用いるデータ)を特定範囲の体形で且つ立位の人に限定することで、エリア情報の推定精度の低下を抑制することとする。具体的には、人検出部22は、画像から検出された人のうち、画像上の検出座標とサイズの関係が所定の条件を満たさない人をノイズ(推定精度を低下させるデータ)とみなし、検出対象から除外するという操作を行う。
図8(a)は、標準体形の被験者をいろいろな距離に立たせて撮影したサンプル画像から、被検者の検出座標(Xc,Yc)と検出サイズS[pixel]を取得し、横軸Yc、縦軸Sのグラフにプロットした結果を示す。なお、図8(b)に示す実験条件は次のとおりである。
・被検者の人体幅(肩幅)W=450mm、身長H=1750mm
・カメラの設置高さh=2200mm、カメラの見下ろし角度α=25度、カメラ垂直画角β=56.6度、垂直画素数Vp=1600pixel
図8(a)から分かるように、同じ体形・姿勢の人に限定した場合、画像上のサイズSと垂直座標Ycは相関関係を有しており、垂直座標Ycが小さくなるほど(画像の下にいくほど)サイズSは大きくなる。このような実験結果から、Yc値ごとに対応するS値を定めることができる。以後、Yc値に対応する適切なS値を「基準値Sref」と称す。YcとSrefの関係は、関数Sref=f(Yc)で保持してもよいし、図8(c)に示すようなルックアップテーブルで保持してもよい。
では、画像上の検出座標Ycと検出サイズSの関係を考慮した人検出処理について、図9のフローチャートを用いて説明する。図9のフローチャートは、図3のステップS11の詳細フローに該当する。
まず、人検出部22は、画像から人の上半身検出を行う(ステップS90)。図7の画像を用いた場合には、標準体形の人物70a及び70bと、小柄な人物71a、大柄な人物71bの4人が検出される。
次に、人検出部22は、ステップS90で検出された人物ごとに、検出座標Ycと検出サイズSの関係が所定の条件を満たすか否かを判定する(ステップS91)。本実施形態では、人検出部22は、検出座標Ycに対応する基準値Srefを図8(c)のルックアップテーブルから取得し、検出サイズSと基準値Srefの差の絶対値|S−Sref|を計算する。そして、その値が所定の閾値Thより小さい場合(|S−Sref|<Th)に、検出座標Ycと検出サイズSの関係が所定の条件を満たしていると判定する。ここで、閾値Thは、検出対象として許容する体形(人体幅W)のバラツキを決めるパラメータである。Thを小さくするほど検出対象の限定が厳しくなり、Thを大きくするほどバラツキの許容が大きくなる。Thの値は、存在位置の推定誤差の許容値に応じて決めればよい。
ステップS91において「所定の条件を満たさない」と判定された人物は、検出結果から取り除かれる(ステップS92)。図7の例では、小柄な人物71aと大柄な人物71bの2人が除外され、人検出部22は、標準体形の人物70a及び70bの2人の検出結果のみを出力する。
このようにノイズを除外した人検出結果のみを用いて以後の処理(図3のステップS12〜S14)を行うことによって、センシングエリア内の床面領域を精度良く推定することが可能となる。
なお、図8に示した実験結果、YcとSrefの対応関係、許容範囲Thなどはあくまでも一例であり、想定される体形やカメラの仕様・設置条件が変われば、それに応じて適宜設定されるべきものである。また、本実施形態では、被検者実験によりYcとSrefの対応関係を求めたが、想定される体形やカメラの仕様・設置条件などに基づく幾何学計算により、YcとSrefの対応関係を下記式のように求めてもよい。
Figure 0006428144
また、人体幅W[mm]および身長H[mm]については成人の平均値を用いることとし、カメラの設置高さh[mm]、カメラの見下ろし角度α[度]、カメラ垂直画角β[度]、垂直画素数Vp[pixel]については既知のパラメータである。
<第2実施形態>
次に本発明の第2実施形態について説明する。第2実施形態では、人検出アルゴリズムとして全身検出を用いる点、及び、足元の座標から実空間上の存在位置を計算する点が、第1実施形態のものと異なる。
図10(a)は、人検出部22による検出結果例を模式的に示している。本実施形態の人検出部22は、人検出アルゴリズムとして全身検出(頭から足元までの全身のシルエットによる人体検出)を用いる。これにより、画像中に全身が写り且つ立位の人(図10(a)の人物100a〜100c)のみが検出対象となり、座っている人101や身体の一部が隠れている人102などはノイズ(推定精度を低下させるデータ)として除外される。検出結果としては、例えば、検出矩形の中心座標(Xc,Yc)と検出矩形の水平サイズSh、垂直サイズSvが出力される。
図10(b)に、位置算出部23による座標計算の例を模式的に示す。ここでは、画像の水平画素数Hp[pixel]、垂直画素数Vp[pixel]、カメラの設置高さh[mm]、カメラの見下ろし角度α[度]、カメラ垂直画角β[度]が既知パラメータとして与えられるものとする。なお、Hp,Vp,βはカメラ21の仕様から定まり、hはエアコン装置1の設置高さから定まり、αはエアコン装置1に対するカメラ21の設置角度から定まる。
位置算出部23は、まず、人物の検出座標(Xc,Yc)及び検出サイズ(Sh,Sv)から、当該人物の足元の垂直座標Yb[pixel]を計算する。
Yb=Yc−Sv/2
足元の垂直座標Ybが分かれば、図10(b)に示すとおり、当該人物の奥行位置L[mm]の値を下記式により幾何学的に計算することができる。
Figure 0006428144
水平位置Tについては、第1実施形態と同じ手法で計算してもよいし、水平画素数Hpと検出垂直座標Ycの比から計算してもよい。
以上述べた第2実施形態の手法によれば、全身検出の結果のみを用いることで、座っている人や身体の一部が隠れている人などを検出対象から除外することができる。加えて、足元の座標(つまり、床面に接する点の座標)から奥行位置Lを計算するため、第1実施形態のように検出サイズSの大きさから奥行位置Lを計算する手法に比べて距離精度を向上することができる。よって、センシングエリア内の床面領域を精度良く推定することが可能となる。
<第3実施形態>
次に本発明の第3実施形態について説明する。第3実施形態では、上半身検出の結果から足元の座標を推定する方法を採用する。
以下、図11を用いて、第3実施形態における人検出部22と位置算出部23の処理の流れを説明する。本実施形態の人検出部22は、第1実施形態と同じく、人検出アルゴリズムとして上半身検出(胸より上の部分のシルエットによる人体検出)を用いる。図11(a)は、二人の人物110a、110bが検出された例を示している。人物110aと110bの体格の違いにより、互いの検出座標Yc1、Yc2および検出サイズS1、S2に差が生じている。そのため、第1実施形態で述べた方法で奥行位置Lを計算すると、人物110aと110bはほぼ同じ距離に存在しているにもかかわらず、人物110aと110bとでは計算結果に誤差が発生してしまう。
そこで本実施形態では、図11(b)に示すように、位置算出部23が、各人物110a、110bの検出座標Yc1、Yc2と検出サイズS1、S2から、各人物110a、110bの足元の座標Yb1、Yb2を求め、その足元の座標Yb1、Yb2から各人物110a、110bの奥行位置を計算する。足元の座標の推定にはどのようなアルゴリズムを用いてもよいが、ここでは単純に、検出サイズ(つまり上半身のサイズ)に対する比率計算によって足元の座標を求める。一般的に、人の身体の寸法比率は概ね同じであるため、上半身のサイズに対する比率計算だけでも妥当な推定結果を得ることができるからである。例えば、上半身のサイズ:全身のサイズ=1:3とした場合には、足元の座標Ybは、
Yb=Yc−5S/2
と計算できる。図11(b)に示すように、検出座標Yc1、Yc2や検出サイズS1、S2が異なっていても、比率計算で求めた足元の座標Yb1、Yb2は概ね一致することが分かる。
このように足元の座標Yb1、Yb2を求めた後、位置算出部23は、足元の座標に基づき各人物110a、110bの存在位置を計算する。具体的な計算方法は第2実施形態と同じである。
以上述べた第3実施形態の手法によれば、足元の座標(つまり、床面に接する点の座標)から奥行位置Lを計算するため、第1実施形態のように検出サイズSの大きさから奥行位置Lを計算する手法に比べて距離精度を向上することができる。よって、センシングエリア内の床面領域を精度良く推定することが可能となる。なお、第3実施形態においても、第1実施形態と同じく、検出座標Ycと検出サイズSの関係が所定の条件を満たさないものを検出対象から除外する操作を行ってもよい。かかる除外操作を行うことにより、精度のさらなる向上を期待できる。
<第4実施形態>
次に本発明の第4実施形態について説明する。第4実施形態では、上半身検出と全身検出とを組み合わせる方法を採用する。
図12(a)に示すように、立位の人物120aと座位の人物120bが同じ距離に存在した場合(体形は同じであるとする)、二人の人物120a、120bの検出サイズSは同じであるが、画像上の検出座標Ycに差が生じる。つまり、座位の人物120bの方が検出座標Ycが低くなる。そのため、第1実施形態のように検出座標Ycと検出サイズSの関係に基づき検出対象を取捨選択した場合、座位の人物120bは検出対象から除外されてしまう。
そこで本実施形態では、検出された人が座位である場合と立位である場合とで所定の条件を異ならせることで、座位の人物120bも検出対象として選ばれるようにする。以下、具体的な処理フローについて図13を用いて説明する。なお、図13のフローチャートは、第1実施形態における図3のステップS11の詳細フローに該当する。
まず、人検出部22が画像から上半身検出を行う(ステップS130)。また、人検出部22は、同じ画像に対し全身検出も行う(ステップS131)。なお、上半身検出と全身検出の順番は逆でもよい。図12(b)に検出結果の一例を示す。立位の人物121a、121bは上半身検出と全身検出の両方で検出されているが、座位の人物122aは上半身検出でのみ検出されていることが分かる。
次に、人検出部22は、検出された人物ごとに、検出座標Ycと検出サイズSの関係が所定の条件を満たすか否かを判定する。このとき、検出された人物が立位である場合(上半身検出と全身検出の両方で検出された場合)と、座位である場合(上半身検出でのみ検出された場合)とで、処理を分岐する(ステップS132)。すなわち、人検出部22は、立位の人物に対しては、立位用のルックアップテーブル(又は関数)から、検出座標Ycに対応する基準値Srefを取得して(ステップS133)、立位の人の上半身サイズSが許容範囲に収まっているかを評価し(ステップS134)、許容範囲外の場合は検出対象から除外する(ステップS135)。一方、座位の人物に対しては、座位用のルックアップテーブル(又は関数)から、検出座標Ycに対応する基準値Srefを取得して(ステップS136)、座位の人の上半身サイズSが許容範囲に収まっているかを評価し(ステップS137)、許容範囲外の場合は検出対象から除外する(ステップS138)。
以上のように、立位の人物のデータと座位の人物のデータとを別々の基準で取捨選択した後、残った検出結果のみを出力する。このようにノイズを除外した人検出結果のみを用いて以後の処理(図3のステップS12〜S14)を行うことによって、センシングエリア内の床面領域を精度良く推定することが可能となる。本実施形態の場合は、座位の人物のデータも床面領域の推定に利用することができるため、人の存在可能エリアを漏れなく且つ精度良く推定することができる。
<第5実施形態>
次に本発明の第5実施形態について説明する。前述の実施形態では、図6に示すように、検出された存在位置を平面図上にプロットしたマップを用い、プロット点(バツ印)の分布(有無や粗密)に基づき床面領域を推定している。これに対し、第5実施形態では、推定部25が、検出された存在位置を、点ではなく、検出誤差を考慮した確率密度分布(又はそれに類する形式)で平面図上に重ね合せていき、累積確率が所定のレベル以上になったエリアを床面領域と判定する、という構成を採る。
図14(a)は、点(T1,L1)の位置で人が検出された場合に、平面図にプロットされる確率密度分布の例を示す。この場合、点(T1,L1)の存在確率が最も高いと考えられるため点(T1,L1)に対し最大値(例えば10ポイント)を与える。さらに、検出誤差を考慮し、点(T1,L1)の周辺の点に対しても、点(T1,L1)からの距離に応じた確率の値(例えば、点(T1,L1)に近い側から順に8ポイント、6ポイント、・・・、1ポイント)を付与する。このとき、検出誤差は全方位に均等ではなく、カメラからみて奥行方向の検出誤差の方が大きいと考えられることから、図14(a)に示すように、奥行方向に長い分布を用いることが好ましい。
図14(b)は、位置記憶部24に蓄積された多数の検出位置それぞれの確率密度分布を重ね合せた例である。累積確率(累積ポイント)が大きいところほど濃い色で示されている。つまり、色の濃いところほど人の通行が多いところと考えられる。このような累積マップを作成した後、推定部25は、例えば累積確率(累積ポイント)が80ポイントを超えたエリアを床面領域と判定すればよい。
以上述べた第5実施形態の構成によれば、検出された存在位置を確率密度分布で捉えることで、検出誤差の影響を低減することができ、床面領域(人の存在可能エリア)の推定を精度良く行うことが可能となる。
<その他の実施形態>
上述した実施形態の構成は本発明の一具体例を示したものにすぎず、本発明の範囲を限定する趣旨のものではない。本発明はその技術思想を逸脱しない範囲において、種々の具体的構成を採り得るものである。
例えば、上述した実施形態では、エリア推定結果をエアコン装置の空調制御に利用する構成を示したが、これは本発明の一適用例に過ぎない。本発明は、監視カメラ、画像センサ、コンピュータビジョン、ロボットビジョンなどにおけるセンシングエリア内の構造認識(人の動線、床面(地面含む)、作業エリア、通路や障害物の把握など)に好ましく適用することができる。また、上述した各実施形態は、技術的な矛盾が生じない限りにおいて、互いに組み合わせてもよい。
1:エアコン装置、2:エリア情報推定装置、3:エリア情報記憶部、4:空調制御部、5:温度センサ、6:熱交換器、7:送風ファン、8:リモコン
21:カメラ、22:人検出部、23:位置算出部、24:位置記憶部、25:推定部

Claims (12)

  1. センシングエリアを撮影するカメラと、
    前記カメラの画像から人を検出する人検出部と、
    前記人検出部によって人が検出された前記画像上の座標に基づき、当該人の前記センシングエリア内の存在位置を計算する位置算出部と、
    を有し、
    前記人検出部は、人の上半身を検出するものであって、
    前記位置算出部は、前記人検出部によって検出された人の上半身の画像上の座標及びサイズから当該人の足元の画像上の座標を求め、前記足元の画像上の座標から当該人の前記センシングエリア内の存在位置を計算する
    ことを特徴とするエリア情報推定装置。
  2. 前記人検出部は、画像上の座標とサイズの関係が所定の条件を満たさない人を、検出の対象から除外する
    ことを特徴とする請求項1に記載のエリア情報推定装置。
  3. 前記位置算出部は、上半身のサイズに対する比率計算によって足元の座標を求める
    ことを特徴とする請求項又はに記載のエリア情報推定装置。
  4. センシングエリアを撮影するカメラと、
    前記カメラの画像から人を検出する人検出部と、
    前記人検出部によって人が検出された前記画像上の座標に基づき、当該人の前記センシングエリア内の存在位置を計算する位置算出部と、
    を有し、
    前記人検出部は、画像上の座標とサイズの関係が所定の条件を満たさない人を、検出の対象から除外し、検出された人が座位である場合と立位である場合とで、前記所定の条件を異ならせる
    ことを特徴とするエリア情報推定装置。
  5. 前記人検出部は、人の上半身を検出する上半身検出と、人の全身を検出する全身検出と
    を行い、上半身検出と全身検出の両方で検出された場合に当該人が立位であると判断し、上半身検出で検出されるが全身検出で検出されなかった場合に当該人が座位であると判断する
    ことを特徴とする請求項に記載のエリア情報推定装置。
  6. 前記センシングエリア内で所定の期間内に検出された人の存在位置の分布に基づき、前記センシングエリア内で人が存在し得る存在可能エリアを推定する推定部をさらに有することを特徴とする請求項1〜のうちいずれか1項に記載のエリア情報推定装置。
  7. 前記推定部は、検出された存在位置のそれぞれを確率密度分布で平面図上に重ね合せていき、累積確率が所定のレベル以上になったエリアを前記存在可能エリアと判定する
    ことを特徴とする請求項に記載のエリア情報推定装置。
  8. 請求項1〜のうちいずれか1項に記載のエリア情報推定装置と、
    前記エリア情報推定装置によって推定される存在可能エリアの情報に基づいて、空調制御を行う制御手段と、
    を有することを特徴とする空気調和装置。
  9. エリア情報推定装置と、
    制御手段と、
    を有する空気調和装置であって、
    前記エリア情報推定装置は、
    センシングエリアを撮影するカメラと、
    前記カメラの画像から人を検出する人検出部と、
    前記人検出部によって人が検出された前記画像上の座標に基づき、当該人の前記センシングエリア内の存在位置を計算する位置算出部と、
    を有し、
    前記制御手段は、前記エリア情報推定装置によって推定される存在可能エリアの情報に基づいて、空調制御を行う
    ことを特徴とする空気調和装置。
  10. センシングエリアを撮影するカメラから画像を取得するステップと、
    前記カメラの画像から人を検出する人検出ステップと、
    前記人検出ステップにおいて人が検出された前記画像上の座標に基づき、当該人の前記センシングエリア内の存在位置を計算する位置計算ステップと、
    を有し、
    前記人検出ステップでは、人の上半身を検出し、
    前記位置計算ステップでは、前記人検出ステップにおいて検出された人の上半身の画像上の座標及びサイズから当該人の足元の画像上の座標を求め、前記足元の画像上の座標から当該人の前記センシングエリア内の存在位置を計算する
    ことを特徴とするエリア情報推定方法。
  11. センシングエリアを撮影するカメラから画像を取得するステップと、
    前記カメラの画像から人を検出する人検出ステップと、
    前記人検出ステップにおいて人が検出された前記画像上の座標に基づき、当該人の前記センシングエリア内の存在位置を計算する位置計算ステップと、
    を有し、
    前記人検出ステップでは、画像上の座標とサイズの関係が所定の条件を満たさない人を、検出の対象から除外し、検出された人が座位である場合と立位である場合とで、前記所定の条件を異ならせる
    ことを特徴とするエリア情報推定方法。
  12. 請求項10又は11に記載のエリア情報推定方法の各ステップをコンピュータに実行させることを特徴とするプログラム。
JP2014213240A 2014-10-17 2014-10-17 エリア情報推定装置、エリア情報推定方法、および空気調和装置 Active JP6428144B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014213240A JP6428144B2 (ja) 2014-10-17 2014-10-17 エリア情報推定装置、エリア情報推定方法、および空気調和装置
KR1020150116539A KR20160045556A (ko) 2014-10-17 2015-08-19 에어리어 정보 추정 장치, 에어리어 정보 추정 방법, 및 공기 조화 장치
CN201510568526.4A CN105528571A (zh) 2014-10-17 2015-09-09 区域信息估计装置、区域信息估计方法以及空调装置
EP15185277.9A EP3029604B1 (en) 2014-10-17 2015-09-15 Area information estimating device, area information estimating method, and air conditioning apparatus
US14/865,114 US9715627B2 (en) 2014-10-17 2015-09-25 Area information estimating device, area information estimating method, and air conditioning apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014213240A JP6428144B2 (ja) 2014-10-17 2014-10-17 エリア情報推定装置、エリア情報推定方法、および空気調和装置

Publications (2)

Publication Number Publication Date
JP2016080550A JP2016080550A (ja) 2016-05-16
JP6428144B2 true JP6428144B2 (ja) 2018-11-28

Family

ID=54147054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014213240A Active JP6428144B2 (ja) 2014-10-17 2014-10-17 エリア情報推定装置、エリア情報推定方法、および空気調和装置

Country Status (5)

Country Link
US (1) US9715627B2 (ja)
EP (1) EP3029604B1 (ja)
JP (1) JP6428144B2 (ja)
KR (1) KR20160045556A (ja)
CN (1) CN105528571A (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6314712B2 (ja) * 2014-07-11 2018-04-25 オムロン株式会社 部屋情報推定装置、部屋情報推定方法、および空気調和装置
JP6589321B2 (ja) * 2015-03-24 2019-10-16 富士通株式会社 システム、検索方法およびプログラム
DE112017002805T5 (de) * 2016-06-03 2019-02-28 Mitsubishi Electric Corporation Ausrüstungssteuerungseinrichtung und Ausrüstungssteuerungsverfahren
IL246387A (en) * 2016-06-22 2017-05-29 Pointgrab Ltd METHOD AND SYSTEM FOR DETERMINING A BODY POSITION OF PRESENT
IL247101B (en) * 2016-08-03 2018-10-31 Pointgrab Ltd Method and system for determining present in the image
WO2018061925A1 (ja) * 2016-09-30 2018-04-05 日本電気株式会社 情報処理装置、長さ測定システム、長さ測定方法およびプログラム記憶媒体
JP6816773B2 (ja) * 2016-09-30 2021-01-20 日本電気株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
KR20180071031A (ko) * 2016-12-19 2018-06-27 엘지전자 주식회사 공기조화기 및 그 제어방법
WO2018216648A1 (ja) * 2017-05-22 2018-11-29 日本電気株式会社 群衆状態認識装置、学習方法および学習プログラム
KR102399673B1 (ko) * 2017-06-01 2022-05-19 삼성전자주식회사 어휘 트리에 기반하여 객체를 인식하는 방법 및 장치
CN107270605B (zh) * 2017-06-12 2019-12-06 青岛海尔特种电冰箱有限公司 一种冰箱及其控制方法
JP2019041261A (ja) * 2017-08-25 2019-03-14 株式会社 日立産業制御ソリューションズ 画像処理システムおよび画像処理システムの設定方法
JP6969611B2 (ja) * 2017-09-27 2021-11-24 日本電気株式会社 情報処理システム、制御方法、及びプログラム
CN108253596B (zh) * 2018-01-31 2021-01-08 广东美的制冷设备有限公司 空调送风方法、空调器及计算机可读存储介质
US11501568B2 (en) * 2018-03-23 2022-11-15 Nec Corporation Information processing apparatus, person search system, place estimation method, and non-transitory computer readable medium storing program
KR102040953B1 (ko) * 2018-04-10 2019-11-27 엘지전자 주식회사 인공지능에 기반하여 영역 선택적으로 동작하는 공기 조화기, 클라우드 서버, 및 이들의 동작 방법
JP2018134547A (ja) * 2018-06-11 2018-08-30 株式会社ユニバーサルエンターテインメント 遊技機
JP2018153697A (ja) * 2018-06-11 2018-10-04 株式会社ユニバーサルエンターテインメント 遊技機
JP7055762B2 (ja) * 2019-03-05 2022-04-18 アルパイン株式会社 顔特徴部検出装置、顔特徴部検出方法
CN110068113A (zh) * 2019-04-25 2019-07-30 南京邮电大学 一种基于深度学习的地铁环境温控系统及方法
CN110332679B (zh) * 2019-05-29 2021-09-21 宁波奥克斯电气股份有限公司 一种空调送风方法和控制系统
CN111932491B (zh) * 2020-06-23 2022-02-08 联宝(合肥)电子科技有限公司 一种部件检测方法、装置及存储介质
JP2022177651A (ja) * 2021-05-18 2022-12-01 オムロン株式会社 画像認識装置、画像認識装置の方法、および画像認識装置プログラム
CN114413442B (zh) * 2022-01-07 2023-02-17 Tcl空调器(中山)有限公司 避风区识别方法、空调器、电子设备及可读存储介质

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005974A (ja) * 1999-06-17 2001-01-12 Matsushita Electric Ind Co Ltd 物体認識方法及び物体認識装置
JP2002197463A (ja) 2000-12-26 2002-07-12 Matsushita Electric Ind Co Ltd 挙動検出装置および挙動検出システム
JP2003087771A (ja) * 2001-09-07 2003-03-20 Oki Electric Ind Co Ltd 監視システム及び方法
JP4002919B2 (ja) * 2004-09-02 2007-11-07 技研トラステム株式会社 移動体高さ判別装置
JP4431513B2 (ja) * 2005-03-16 2010-03-17 株式会社日立製作所 セキュリティシステム
JP4802112B2 (ja) * 2007-02-08 2011-10-26 株式会社東芝 トラッキング方法及びトラッキング装置
FR2927444B1 (fr) * 2008-02-12 2013-06-14 Cliris Procede pour generer une image de densite d'une zone d'observation
JP4691570B2 (ja) * 2008-02-29 2011-06-01 東芝テリー株式会社 画像処理装置およびオブジェクト推定プログラム
JP4839330B2 (ja) * 2008-02-29 2011-12-21 東芝テリー株式会社 画像処理装置および画像処理プログラム
JP2010011441A (ja) * 2008-05-26 2010-01-14 Sanyo Electric Co Ltd 撮像装置及び画像再生装置
JP5251987B2 (ja) * 2008-12-22 2013-07-31 日本電気株式会社 人判定装置、方法およびプログラム
KR101569414B1 (ko) * 2008-12-26 2015-11-16 엘지전자 주식회사 공기조화기 및 그 동작방법
US20120020518A1 (en) * 2009-02-24 2012-01-26 Shinya Taguchi Person tracking device and person tracking program
JP5483961B2 (ja) * 2009-09-02 2014-05-07 キヤノン株式会社 画像処理装置、被写体判別方法、プログラム及び記憶媒体
WO2011027452A1 (ja) * 2009-09-03 2011-03-10 株式会社 東芝 存在人数推定装置
JP5454065B2 (ja) * 2009-10-07 2014-03-26 パナソニック株式会社 空気調和機
JP5664553B2 (ja) * 2009-10-16 2015-02-04 日本電気株式会社 人物服装特徴抽出装置、人物検索装置、人物服装特徴抽出方法、人物検索方法及びプログラム
CN102640182B (zh) * 2009-11-25 2014-10-15 本田技研工业株式会社 被监测对象距离测定装置和搭载了该装置的车辆
JP2012042074A (ja) * 2010-08-17 2012-03-01 Panasonic Corp 空気調和機
JP2012108785A (ja) * 2010-11-18 2012-06-07 Panasonic Corp 人数カウント装置、人数カウント方法及び人数カウントプログラム
JP5762730B2 (ja) * 2010-12-09 2015-08-12 パナソニック株式会社 人検出装置および人検出方法
JP5771413B2 (ja) * 2011-03-02 2015-08-26 パナソニック株式会社 姿勢推定装置、姿勢推定システム、および姿勢推定方法
MY167470A (en) * 2011-03-28 2018-08-29 Nec Corp Person Tracking Device, Person Tracking Method, and Non-Transitory Computer Readable Medium Storing Person Tracking Program
JP2013024534A (ja) 2011-07-26 2013-02-04 Panasonic Corp 状況認識装置
JP5756709B2 (ja) 2011-08-03 2015-07-29 綜合警備保障株式会社 身長推定装置、身長推定方法、及び身長推定プログラム
US20130170760A1 (en) * 2011-12-29 2013-07-04 Pelco, Inc. Method and System for Video Composition
JP5865784B2 (ja) * 2012-06-05 2016-02-17 日立アプライアンス株式会社 空気調和機
JP6335425B2 (ja) * 2012-10-17 2018-05-30 日立ジョンソンコントロールズ空調株式会社 空気調和機
JP2014164216A (ja) * 2013-02-27 2014-09-08 Omron Corp 広角撮像装置

Also Published As

Publication number Publication date
KR20160045556A (ko) 2016-04-27
US9715627B2 (en) 2017-07-25
EP3029604B1 (en) 2021-04-14
US20160110602A1 (en) 2016-04-21
EP3029604A2 (en) 2016-06-08
EP3029604A3 (en) 2016-08-10
CN105528571A (zh) 2016-04-27
JP2016080550A (ja) 2016-05-16

Similar Documents

Publication Publication Date Title
JP6428144B2 (ja) エリア情報推定装置、エリア情報推定方法、および空気調和装置
KR101127493B1 (ko) 화상 처리 장치, 화상 처리 방법 및 공조 제어 장치
US10982871B2 (en) Equipment control device and method, utilizing basal metabolism data calculated from estimated characteristics of a person based on detected visible light image data and corresponding thermal image data
JP6314712B2 (ja) 部屋情報推定装置、部屋情報推定方法、および空気調和装置
CN105283129B (zh) 信息处理装置、信息处理方法
US9355334B1 (en) Efficient layer-based object recognition
JP5697583B2 (ja) 部屋形状認識方法および装置、ならびにこれを用いた空気調和機
KR101035055B1 (ko) 이종 카메라를 이용한 객체 추적 시스템 및 방법
US20120133739A1 (en) Image processing apparatus
JP5127531B2 (ja) 画像監視装置
JP5001930B2 (ja) 動作認識装置及び方法
US20200245904A1 (en) Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method
JP2011198161A (ja) 対象物認識システム及び該システムを利用する監視システム、見守りシステム
JP2017049676A (ja) 姿勢判定装置および物体検知装置
JP7354767B2 (ja) 物体追跡装置および物体追跡方法
Chae et al. Collision detection method using image segmentation for the visually impaired
JP2011209794A (ja) 対象物認識システム及び該システムを利用する監視システム、見守りシステム
Hu et al. Bayesian fusion of ceiling mounted camera and laser range finder on a mobile robot for people detection and localization
KR101290517B1 (ko) 촬영장치 및 이의 대상 추적방법
Shimizu et al. LIDAR-based body orientation estimation by integrating shape and motion information
JP4670010B2 (ja) 移動体分布推定装置、移動体分布推定方法及び移動体分布推定プログラム
WO2020261403A1 (ja) 身長推定装置、身長推定方法及びプログラムが格納された非一時的なコンピュータ可読媒体
WO2020261404A1 (ja) 人物状態検出装置、人物状態検出方法及びプログラムが格納された非一時的なコンピュータ可読媒体
US11281899B2 (en) Method and system for determining occupancy from images
JP2006227739A (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181015

R150 Certificate of patent or registration of utility model

Ref document number: 6428144

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150