JPWO2021019768A1 - Indoor layout estimation device, indoor layout estimation method and air conditioner - Google Patents

Indoor layout estimation device, indoor layout estimation method and air conditioner Download PDF

Info

Publication number
JPWO2021019768A1
JPWO2021019768A1 JP2021536578A JP2021536578A JPWO2021019768A1 JP WO2021019768 A1 JPWO2021019768 A1 JP WO2021019768A1 JP 2021536578 A JP2021536578 A JP 2021536578A JP 2021536578 A JP2021536578 A JP 2021536578A JP WO2021019768 A1 JPWO2021019768 A1 JP WO2021019768A1
Authority
JP
Japan
Prior art keywords
area
image
pixels
pixel
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021536578A
Other languages
Japanese (ja)
Other versions
JP6987314B2 (en
Inventor
直大 澁谷
友也 藤野
芳美 守屋
和夫 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2021019768A1 publication Critical patent/JPWO2021019768A1/en
Application granted granted Critical
Publication of JP6987314B2 publication Critical patent/JP6987314B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/62Control or safety arrangements characterised by the type of control or by internal processing, e.g. using fuzzy logic, adaptive control or estimation of values
    • F24F11/63Electronic processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation

Abstract

対象領域を撮像している赤外線カメラ(1)から出力された画像に含まれている複数の画素のそれぞれの評価値として、複数の画素におけるそれぞれの画素値の時間的な推移と、外気温の時間的な推移との類似度を算出する類似度算出部(12)と、画像に含まれている複数の画素のうち、類似度算出部(12)により算出された評価値が第1の閾値よりも大きい画素を含む領域が、画像の中で、窓が在る領域であると判定する窓領域判定部(13)とを備えるように、室内レイアウト推定装置(2)を構成した。As the evaluation values of each of the plurality of pixels included in the image output from the infrared camera (1) capturing the target area, the temporal transition of each pixel value in the plurality of pixels and the outside temperature The evaluation value calculated by the similarity calculation unit (12) among the plurality of pixels included in the image and the similarity calculation unit (12) for calculating the similarity with the temporal transition is the first threshold value. The indoor layout estimation device (2) is configured to include a window area determination unit (13) for determining that a region including a larger pixel is a region where a window exists in an image.

Description

この発明は、対象領域の中で、窓が在る領域を判定する室内レイアウト推定装置、室内レイアウト推定方法及び空気調和機に関するものである。 The present invention relates to an indoor layout estimation device, an indoor layout estimation method, and an air conditioner for determining an area where a window exists in a target area.

以下の特許文献1には、画像情報に含まれている複数の画素におけるそれぞれの輝度と輝度閾値とを比較し、輝度閾値よりも大きな輝度を有する画素を含む領域を、窓領域として検出する窓検出方法が開示されている。
特許文献1に開示されている窓検出方法では、例えば、太陽光によって空調室の全体が明るく照らされているときには、空調室の壁面と窓との区別ができるように輝度閾値が高めに設定される。また、例えば、窓にカーテンがかけられて、空調室の全体が暗いときには、輝度閾値が低めに設定される。
In the following Patent Document 1, a window that compares the luminance and luminance threshold of each of a plurality of pixels included in the image information and detects a region including pixels having a luminance larger than the luminance threshold as a window region. The detection method is disclosed.
In the window detection method disclosed in Patent Document 1, for example, when the entire air-conditioned room is brightly illuminated by sunlight, the brightness threshold value is set high so that the wall surface of the air-conditioned room and the window can be distinguished. NS. Further, for example, when the window is covered with a curtain and the entire air-conditioned room is dark, the brightness threshold value is set low.

特開2017−44373号公報Japanese Unexamined Patent Publication No. 2017-44373

画像情報に含まれている複数の画素における輝度は、外気温に応じても変動する。しかし、特許文献1に開示されている窓検出方法では、外気温とは無関係に輝度閾値が設定されるため、窓領域も外気温と無関係に検出される。したがって、当該窓検出方法では、外気温が変化すると、窓領域の誤検出を生じることがあるという課題があった。 The brightness of a plurality of pixels included in the image information varies depending on the outside air temperature. However, in the window detection method disclosed in Patent Document 1, since the luminance threshold value is set regardless of the outside air temperature, the window area is also detected regardless of the outside air temperature. Therefore, the window detection method has a problem that erroneous detection of the window area may occur when the outside air temperature changes.

この発明は上記のような課題を解決するためになされたもので、外気温が変化しても、窓領域の誤検出を防ぐことができる室内レイアウト推定装置を得ることを目的とする。 The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to obtain an indoor layout estimation device capable of preventing erroneous detection of a window area even if the outside air temperature changes.

この発明に係る室内レイアウト推定装置は、対象領域を撮像している赤外線カメラから出力された画像に含まれている複数の画素のそれぞれの評価値として、複数の画素におけるそれぞれの画素値の時間的な推移と、外気温の時間的な推移との類似度を算出する類似度算出部と、画像に含まれている複数の画素のうち、類似度算出部により算出された評価値が第1の閾値よりも大きい画素を含む領域が、画像の中で、窓が在る領域であると判定する窓領域判定部とを備えるようにしたものである。 In the indoor layout estimation device according to the present invention, as the evaluation value of each of the plurality of pixels included in the image output from the infrared camera capturing the target area, the temporal time of each pixel value in the plurality of pixels is used. The first is the evaluation value calculated by the similarity calculation unit among the plurality of pixels included in the image and the similarity calculation unit that calculates the similarity between the transition and the temporal transition of the outside temperature. A region including pixels larger than the threshold value is provided with a window region determination unit for determining that the region includes a window in the image.

この発明によれば、外気温が変化しても、窓領域の誤検出を防ぐことができる。 According to the present invention, it is possible to prevent erroneous detection of the window region even if the outside air temperature changes.

実施の形態1に係る室内レイアウト推定装置2を含む空気調和機を示す構成図である。It is a block diagram which shows the air conditioner which includes the room layout estimation apparatus 2 which concerns on Embodiment 1. FIG. 実施の形態1に係る室内レイアウト推定装置2を示す構成図である。It is a block diagram which shows the room layout estimation apparatus 2 which concerns on Embodiment 1. FIG. 実施の形態1に係る室内レイアウト推定装置2のハードウェアを示すハードウェア構成図である。It is a hardware block diagram which shows the hardware of the room layout estimation apparatus 2 which concerns on Embodiment 1. FIG. 実施の形態1に係る標準偏差算出部14の内部を示す構成図である。It is a block diagram which shows the inside of the standard deviation calculation part 14 which concerns on Embodiment 1. FIG. 室内レイアウト推定装置2が、ソフトウェア又はファームウェア等によって実現される場合のコンピュータのハードウェア構成図である。It is a hardware block diagram of the computer when the room layout estimation apparatus 2 is realized by software, firmware and the like. 室内レイアウト推定装置2の処理手順である室内レイアウト推定方法を示すフローチャートである。It is a flowchart which shows the room layout estimation method which is the processing procedure of the room layout estimation apparatus 2. 過去12時間分の画像Gのそれぞれに含まれている複数の画素p〜pのうち、窓領域Wに含まれている或る1つの画素pn,mの画素値pdn,mの時間的な推移の一例を示す説明図である。Of the plurality of pixels p 1 to p N included in each of the images G m for the past 12 hours, the pixel values pd n of one pixel pn, m included in the window area W m, It is explanatory drawing which shows an example of the temporal transition of m. 類似度算出部12による評価値S〜Sの算出結果の一例を示す説明図である。Is an explanatory diagram showing an example of calculation results of evaluation value S 1 to S N by the similarity calculation unit 12. 窓領域判定部13による窓領域Wの判定結果の一例を示す説明図である。It is explanatory drawing which shows an example of the determination result of the window area W m by the window area determination unit 13. M個の撮像画像G〜Gのうち、ある1つの画像Gの一例を示す説明図である。It is explanatory drawing which shows an example of a certain image G m among M image capture images G 1 to GM. M個の撮像画像G〜Gのうち、ある1つの画像Gにおける背景領域Bと前景領域Fとを示す説明図である。It is explanatory drawing which shows the background area B m and the foreground area F m in a certain image G m among M image capture images G 1 to GM. M個の画像G〜Gにおける前景領域F〜F内の下端の画素を示す説明図である。Is an explanatory view showing the lower end of the pixels in the foreground area F 1 to F M in the M image G 1 ~G M. 床領域判定部16による床領域Yの判定結果の一例を示す説明図である。It is explanatory drawing which shows an example of the determination result of the floor area Y m by the floor area determination unit 16. 床面と壁面との境界線、床領域Y、及び窓領域Wを示す説明図である。It is explanatory drawing which shows the boundary line between a floor surface and a wall surface, a floor area Y m , and a window area W m. 実施の形態3に係る室内レイアウト推定装置2を示す構成図である。It is a block diagram which shows the room layout estimation apparatus 2 which concerns on Embodiment 3. 実施の形態3に係る室内レイアウト推定装置2のハードウェアを示すハードウェア構成図である。It is a hardware block diagram which shows the hardware of the room layout estimation apparatus 2 which concerns on Embodiment 3. FIG.

以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。 Hereinafter, in order to explain the present invention in more detail, embodiments for carrying out the present invention will be described with reference to the accompanying drawings.

実施の形態1.
図1は、実施の形態1に係る室内レイアウト推定装置2を含む空気調和機を示す構成図である。
図1において、赤外線カメラ1は、一定の時間間隔Δtで、対象領域を繰り返し撮像し、対象領域を撮像した画像として、撮像時刻tが互いに異なるM個の画像G〜Gを室内レイアウト推定装置2に出力する。Mは、2以上の整数である。
一定の時間間隔Δtは、例えば、1秒間に10フレーム〜1秒間に60フレームのうちの、いずれかのフレームレートでの撮像を可能とする時間間隔である。
Embodiment 1.
FIG. 1 is a configuration diagram showing an air conditioner including the indoor layout estimation device 2 according to the first embodiment.
In Figure 1, the infrared camera 1, at regular time intervals Delta] t, imaged repeatedly target area, an image obtained by imaging an object region, the indoor layout estimated image G 1 ~G M of M where the imaging time t are different from each other Output to device 2. M is an integer of 2 or more.
The constant time interval Δt is, for example, a time interval that enables imaging at any frame rate of 10 frames per second to 60 frames per second.

対象領域は、後述するエアコン4により空気が調整される部屋の一部又は全体であり、対象領域には、窓、床、壁及び人間のほか、机、パソコン等が存在している。
対象領域は、固定されているため、M個の画像G〜Gは、同一の対象領域が撮像されている画像である。
画像G(m=1,・・・,M)は、x軸と平行な方向(以下、「x方向」と称する)と、y軸と平行な方向(以下、「y方向」と称する)とで表される2次元平面の画像である。例えば、画像Gのx方向は、対象領域が存在している空間の任意の水平方向に相当し、画像Gのy方向は、対象領域が存在している空間の鉛直方向に相当する。なお、本明細書において、「平行」は、厳密な意味での平行に限らず、略平行を含んでいる。
画像Gは、N個の画素p1,m〜pN,mを含んでおり、画素p1,m〜pN,mにおけるそれぞれの画素値pd1,m〜pdN,mは、温度を示すものである。Nは、2以上の整数である。
例えば、M個の画像G〜Gのそれぞれに含まれている画素p1,1〜p1,Mは、画素位置が互いに同一の画素であり、画像G〜Gのそれぞれに含まれている画素p2,1〜p2,Mは、画素位置が互いに同一の画素である。同様に、例えば、画像G〜Gのそれぞれに含まれている画素pN,1〜pN,Mは、画素位置が互いに同一の画素である。
The target area is a part or the whole of a room where the air is adjusted by the air conditioner 4 described later, and the target area includes windows, floors, walls, human beings, desks, personal computers, and the like.
Target region, because it is fixed, M-number of the image G 1 ~G M is an image the same target area is imaged.
The image Gm (m = 1, ..., M) is a direction parallel to the x-axis (hereinafter referred to as "x-direction") and a direction parallel to the y-axis (hereinafter referred to as "y-direction"). It is an image of a two-dimensional plane represented by. E.g., x-direction of the image G m corresponds to any horizontal space target area exists, y direction of the image G m corresponds to the vertical direction of the space region of interest is present. In addition, in this specification, "parallel" is not limited to parallel in a strict sense, but includes substantially parallel.
The image G m includes N pixels p 1, m to p N, m , and the respective pixel values pd 1, m to pd N, m in the pixels p 1, m to p N, m are temperatures. Is shown. N is an integer of 2 or more.
For example, the pixel p 1, 1 ~p 1, M contained in each of the M image G 1 ~G M has the same pixel pixel position to each other, ie, each of the image G 1 ~G M The pixels p 2,1 to p 2, M that are included are pixels having the same pixel position. Similarly, for example, an image G 1 ~G pixel p N included in each of the M, 1 ~p N, M is the pixel positions are the same pixels from each other.

室内レイアウト推定装置2は、赤外線カメラ1から出力されたM個の画像G〜Gに基づいて、対象領域の中で、窓が在る領域(以下、「窓領域」と称する)、床が在る領域(以下、「床領域」と称する)及び壁が在る領域(以下、「壁領域」と称する)のそれぞれを判定する。
室内レイアウト推定装置2は、窓領域の判定結果、床領域の判定結果及び壁領域の判定結果のそれぞれを制御部3に出力する。
Room layout estimation device 2, based on the M image G 1 ~G M output from the infrared camera 1, in the target region, a region in which the window is located (hereinafter, referred to as "window area"), the floor Each of the area where the wall is located (hereinafter referred to as "floor area") and the area where the wall is located (hereinafter referred to as "wall area") is determined.
The indoor layout estimation device 2 outputs each of the determination result of the window area, the determination result of the floor area, and the determination result of the wall area to the control unit 3.

制御部3は、室内レイアウト推定装置2から出力された判定結果に基づいて、例えば、エアコン4を制御することで、対象領域内の空気を調整する。
エアコン4は、対象領域内の空気を調整する機器である。
図1に示す空気調和機では、制御部3が、エアコン4を制御することで、対象領域内の空気を調整している。しかし、これは一例に過ぎず、制御部3が、扇風機、床暖房機又はパネルヒータ等の機器を制御することで、対象領域内の空気を調整するようにしてもよい。
The control unit 3 adjusts the air in the target area by controlling, for example, the air conditioner 4 based on the determination result output from the indoor layout estimation device 2.
The air conditioner 4 is a device that adjusts the air in the target area.
In the air conditioner shown in FIG. 1, the control unit 3 controls the air conditioner 4 to adjust the air in the target region. However, this is only an example, and the control unit 3 may adjust the air in the target area by controlling a device such as a fan, a floor heater, or a panel heater.

図2は、実施の形態1に係る室内レイアウト推定装置2を示す構成図である。
図3は、実施の形態1に係る室内レイアウト推定装置2のハードウェアを示すハードウェア構成図である。
室内レイアウト推定装置2は、画像記憶部10、外気温記憶部11、類似度算出部12、窓領域判定部13、標準偏差算出部14、前景領域判定部15、床領域判定部16及び壁領域判定部17を備えている。
FIG. 2 is a configuration diagram showing an indoor layout estimation device 2 according to the first embodiment.
FIG. 3 is a hardware configuration diagram showing the hardware of the indoor layout estimation device 2 according to the first embodiment.
The indoor layout estimation device 2 includes an image storage unit 10, an outside air temperature storage unit 11, a similarity calculation unit 12, a window area determination unit 13, a standard deviation calculation unit 14, a foreground area determination unit 15, a floor area determination unit 16, and a wall area. A determination unit 17 is provided.

画像記憶部10は、例えば、図3に示す画像記憶回路20によって実現される。
画像記憶部10は、赤外線カメラ1から出力されたM個の画像G〜Gを記憶する。
外気温記憶部11は、例えば、図3に示す外気温記憶回路21によって実現される。
外気温記憶部11は、例えば、温度計によって、一定の時間間隔Δt’で測定された、測定時刻tが互いに異なるM個の外気温T〜Tを記憶する。
外気温T(m=1,・・・,M)は、対象領域を含む建物の外部の気温であり、対象領域と、建物の外部との間には、窓が存在している。
図2に示す室内レイアウト推定装置2では、外気温記憶部11が、温度計によって測定された外気温T〜Tを記憶している。しかし、これは一例に過ぎず、室内レイアウト推定装置2の図示せぬ通信部が、例えば、気象データを配信しているインターネット上のサイトから、対象領域を含む建物付近の気温のデータをダウンロードし、外気温記憶部11が、当該気温のデータを外気温T〜Tとして記憶するようにしてもよい。
The image storage unit 10 is realized by, for example, the image storage circuit 20 shown in FIG.
Image storage unit 10 stores the M image G 1 ~G M output from the infrared camera 1.
The outside air temperature storage unit 11 is realized by, for example, the outside air temperature storage circuit 21 shown in FIG.
Outside temperature storage unit 11 is, for example, by a thermometer, was measured at constant time intervals Delta] t ', the measurement time t stores M different outside air temperature T 1 through T M together.
The outside air temperature T m (m = 1, ..., M) is the air temperature outside the building including the target area, and a window exists between the target area and the outside of the building.
In the indoor layout estimation apparatus 2 shown in FIG. 2, the outside air temperature storage unit 11 stores the outside air temperature T 1 through T M measured by the thermometer. However, this is only an example, and the communication unit (not shown) of the indoor layout estimation device 2 downloads the temperature data near the building including the target area from, for example, a site on the Internet that distributes meteorological data. , outside temperature storage unit 11 may be configured to store the data of the temperature as the outside air temperature T 1 through T M.

M個の外気温T〜Tにおける測定の時間間隔Δt’と、M個の画像G〜Gにおける撮像の時間間隔Δtとは、同一である。したがって、m番目の外気温Tの測定時刻t’と、m番目の画像Gの撮像時刻tとは、同一時刻である。
ただし、測定の時間間隔Δt’と撮像の時間間隔Δtとは、厳密に同一であるものに限るものではなく、実用上問題のない範囲で、測定の時間間隔Δt’と撮像の時間間隔Δtとが互いに異なっていてもよい。また、m番目の測定時刻t’と、m番目の撮像時刻tとは、厳密に同一であるものに限るものではなく、実用上問題のない範囲で、m番目の測定時刻t’と、m番目の撮像時刻tとが互いに異なっていてもよい。
Time interval Delta] t 'of the measurement in the M outside air temperature T 1 through T M, the time interval Delta] t of the imaging in the M image G 1 ~G M, are identical. Therefore, the measurement time t'of the mth outside air temperature Tm and the imaging time t of the mth image Gm are the same time.
However, the measurement time interval Δt'and the imaging time interval Δt are not limited to those that are exactly the same, and the measurement time interval Δt'and the imaging time interval Δt are within a range where there is no practical problem. May be different from each other. Further, the m-th measurement time t'and the m-th imaging time t are not limited to those that are exactly the same, and the m-th measurement time t'and m are within a range where there is no practical problem. The second imaging time t may be different from each other.

類似度算出部12は、例えば、図3に示す類似度算出回路22によって実現される。
類似度算出部12は、画像記憶部10に記憶されているM個の画像G〜Gを取得する。
類似度算出部12は、画像Gに含まれているN個の画素p1,m〜pN,mのそれぞれの評価値S〜Sとして、N個の画素p1,m〜pN,mにおけるそれぞれの画素値pd1,m〜pdN,mの時間的な推移と、外気温記憶部11に記憶されている外気温Tの時間的な推移との類似度を算出する。
類似度算出部12は、算出したそれぞれの評価値S〜Sを窓領域判定部13に出力する。
The similarity calculation unit 12 is realized by, for example, the similarity calculation circuit 22 shown in FIG.
Similarity calculation unit 12 obtains the M pieces of the image G 1 ~G M stored in the image storage unit 10.
The similarity calculation unit 12 has N pixels p 1, m to p as evaluation values S 1 to NS of N pixels p 1, m to p N, m included in the image G m. The degree of similarity between the temporal transition of each pixel value pd 1, m to pd N, m in N and m and the temporal transition of the outside temperature T m stored in the outside temperature storage unit 11 is calculated. ..
Similarity calculation unit 12 outputs the respective evaluation values S 1 to S N of calculated in the window region judgment section 13.

窓領域判定部13は、例えば、図3に示す窓領域判定回路23によって実現される。
窓領域判定部13は、画像記憶部10に記憶されているM個の画像G〜Gのうち、いずれか1つの画像Gを取得する。
窓領域判定部13は、取得した画像Gに含まれているN個の画素p1,m〜pN,mのうち、類似度算出部12により算出された評価値S(n=1,・・・,N)が第1の閾値Thよりも大きい画素を含む領域が、画像Gの中の窓領域Wであると判定する。外気温Tの時間的な推移との類似度が高いほど、窓領域Wの可能性が高いため、評価値Sが第1の閾値Thよりも大きい画素を含む領域は、画像Gの中の窓領域Wであると判定される。第1の閾値Thは、例えば、窓領域判定部13の内部メモリに格納されていてもよいし、図2に示す室内レイアウト推定装置2の外部から与えられるものであってもよい。
窓領域判定部13は、窓領域Wの判定結果として、例えば、窓領域Wが存在している、画像G内の座標を示すデータを制御部3及び壁領域判定部17のそれぞれに出力する。
The window area determination unit 13 is realized by, for example, the window area determination circuit 23 shown in FIG.
Window region judgment section 13, of the M image G 1 ~G M stored in the image storage unit 10, and acquires any one of the images G m.
The window area determination unit 13 has an evaluation value Sn (n = 1) calculated by the similarity calculation unit 12 among the N pixels p 1, m to p N, m included in the acquired image G m. , ..., N) is determined to be the window region W m in the image G m , which includes pixels larger than the first threshold value Th 1. The higher the similarity between the temporal changes of the outside air temperature T m, there is a high possibility of the window area W m, the region evaluation value S n comprises greater pixel than the first threshold value Th 1, the image G it is determined to be a window region W m in the m. The first threshold value Th 1 may be stored in, for example, the internal memory of the window area determination unit 13 or may be given from the outside of the indoor layout estimation device 2 shown in FIG.
As a determination result of the window area W m , the window area determination unit 13 inputs, for example, data indicating coordinates in the image G m in which the window area W m exists to each of the control unit 3 and the wall area determination unit 17. Output.

標準偏差算出部14は、図4に示すように、画素群特定部14a及び偏差算出処理部14bを備えている。
標準偏差算出部14は、例えば、図3に示す標準偏差算出回路24によって実現される。
標準偏差算出部14は、画像記憶部10に記憶されているM個の画像G〜Gを取得する。
標準偏差算出部14は、M個の画像G〜Gのそれぞれに含まれている画素p1,1〜pN,1、p1,2〜pN,2、・・・、p1,M〜pN,Mの中で、画素位置が同一の画素を含むN個の画素群(1)〜(N)のそれぞれの評価値v〜vを算出する。
画素群(1)は、画素p1,1、p1,2、・・・、p1,Mを含んでおり、画素群(2)は、画素p2,1、p2,2、・・・、p2,Mを含んでいる。また、画素群(N)は、画素pN,1、pN,2、・・・、pN,Mを含んでいる。
標準偏差算出部14は、画素群(n)(n=1,・・・,N)の評価値vとして、例えば、画素群(n)に含まれているM個の画素pn,1〜pn,Mにおける画素値pdn,1〜pdn,Mの標準偏差を算出する。
標準偏差算出部14は、算出したそれぞれの評価値v〜vを前景領域判定部15に出力する。
As shown in FIG. 4, the standard deviation calculation unit 14 includes a pixel group specifying unit 14a and a deviation calculation processing unit 14b.
The standard deviation calculation unit 14 is realized by, for example, the standard deviation calculation circuit 24 shown in FIG.
Standard deviation calculating unit 14 obtains the M pieces of the image G 1 ~G M stored in the image storage unit 10.
The standard deviation calculation unit 14 includes pixels p 1 , 1 to p N, 1 , p 1 , 2 to p N, 2, ..., P 1 included in each of the M images G 1 to GM. , M ~p N, in the M, N pieces of the pixel group pixel positions containing the same pixel (1) is calculated respective evaluation values v 1 to v N of ~ (N).
The pixel group (1) includes pixels p 1 , 1, p 1 , 2, ..., P 1, M , and the pixel group (2) includes pixels p 2 , 1, p 2 , 2, ...・ ・ Includes p 2, M. Further, the pixel group (N) includes pixels p N, 1 , p N, 2 , ..., P N, M.
Standard deviation calculating section 14, a pixel group (n) (n = 1, ···, N) as the evaluation value v n of, for example, M number of pixel p n, 1 which is included in the pixel group (n) Calculate the standard deviation of the pixel values pd n, 1 to pd n, M in ~ pn, M.
The standard deviation calculation unit 14 outputs the calculated evaluation values v 1 to v N to the foreground region determination unit 15.

図4は、実施の形態1に係る標準偏差算出部14の内部を示す構成図である。
画素群特定部14aは、画像記憶部10に記憶されているM個の画像G〜Gを取得する。
画素群特定部14aは、M個の画像G〜Gのそれぞれに含まれている画素p1,1〜pN,1、p1,2〜pN,2、・・・、p1,M〜pN,Mの中で、画素位置が互いに同一の画素を含むN個の画素群(1)〜(N)のそれぞれを特定する。
偏差算出処理部14bは、画素群特定部14aにより特定されたそれぞれの画素群(1)〜(N)の評価値v〜vとして、それぞれの画素群(1)〜(N)に含まれているM個の画素pn,1〜pn,Mにおける画素値pdn,1〜pdn,Mの標準偏差を算出する。
偏差算出処理部14bは、算出したそれぞれの評価値v〜vを前景領域判定部15に出力する。
FIG. 4 is a configuration diagram showing the inside of the standard deviation calculation unit 14 according to the first embodiment.
Pixel group identifying unit 14a obtains the M pieces of the image G 1 ~G M stored in the image storage unit 10.
The pixel group specifying unit 14a includes pixels p 1 , 1 to p N, 1 , p 1 , 2 to p N, 2, ..., P 1 included in each of the M images G 1 to GM. , M to p N, M , each of N pixel groups (1) to (N) including pixels having the same pixel position is specified.
The deviation calculation processing unit 14b is included in the respective pixel groups (1) to (N) as the evaluation values v 1 to v N of the respective pixel groups (1) to (N) specified by the pixel group identification unit 14a. It is to have M pieces of pixel p n, 1 ~p n, pixel values in the M pd n, 1 ~pd n, calculates the standard deviation of M.
The deviation calculation processing unit 14b outputs the calculated evaluation values v 1 to v N to the foreground region determination unit 15.

前景領域判定部15は、例えば、図3に示す前景領域判定回路25によって実現される。
前景領域判定部15は、N個の画素群(1)〜(N)の中で、標準偏差算出部14により算出された評価値v(n=1,・・・,N)が第2の閾値Thよりも大きい画素群(n)を特定する。
第2の閾値Thは、例えば、前景領域判定部15の内部メモリに格納されていてもよいし、図2に示す室内レイアウト推定装置2の外部から与えられるものであってもよい。
前景領域判定部15は、それぞれの画像Gに含まれているN個の画素p1,m〜pN,mのうち、特定した画素群(n)に含まれている画素pn,mを含む領域が、それぞれの画像Gの中の前景領域Fであると判定する。
前景領域判定部15は、前景領域Fの判定結果として、例えば、前景領域Fが存在している、画像G内の座標を示すデータを床領域判定部16に出力する。
前景領域は、人間又は動物等の移動体が在る領域である。
The foreground region determination unit 15 is realized by, for example, the foreground region determination circuit 25 shown in FIG.
In the foreground region determination unit 15, the evaluation value v n (n = 1, ..., N) calculated by the standard deviation calculation unit 14 is the second among the N pixel groups (1) to (N). A pixel group (n) larger than the threshold value Th 2 of is specified.
The second threshold value Th 2 may be stored in the internal memory of the foreground region determination unit 15, or may be given from the outside of the indoor layout estimation device 2 shown in FIG. 2, for example.
Foreground area determination section 15, each image G N pixels p 1 contained in the m, m ~p N, of m, the pixel p n, which is included in the identified group of pixels (n), m It is determined that the region including is the foreground region F m in each image G m.
Foreground region determining unit 15, as the determination result of the foreground region F m, for example, and outputs the foreground region F m is present, the data indicating the coordinates within the image G m in the floor area determination unit 16.
The foreground area is an area where a moving object such as a human or an animal exists.

前景領域Fは、画像Gの中で、背景領域B以外の領域である。したがって、前景領域判定部15は、先に背景領域Bを判定し、その後、前景領域Fを判定するようにしてもよい。この場合、前景領域判定部15は、まず、N個の画素群(1)〜(N)の中で、標準偏差算出部14により算出された評価値vが第2の閾値Th以下の画素群(n)を特定する。そして、前景領域判定部15は、それぞれの撮像画像Gに含まれている画素p1,m〜pN,mのうち、特定した画素群(n)に含まれている画素pn,mを含む領域が、それぞれの撮像画像Gの中の背景領域Bであると判定する。そして、前景領域判定部15は、撮像画像Gの中で、背景領域B以外の領域が、前景領域Fであると判定するようにしてもよい。The foreground area F m is an area other than the background area B m in the image G m. Therefore, the foreground region determination unit 15 may first determine the background region B m and then determine the foreground region F m . In this case, the foreground area determination unit 15 first among the N pixel groups (1) ~ (N), evaluation value v n calculated by the standard deviation calculating section 14 of the second threshold value Th 2 or less The pixel group (n) is specified. The foreground region determining section 15, each pixel p 1 contained in the captured image G m, m ~p N, of m, the pixel p n, which is included in the identified group of pixels (n), m It is determined that the region including is the background region B m in each captured image G m. The foreground region determining unit 15, in the captured image G m, the area other than the background area B m may be determined as a foreground region F m.

床領域判定部16は、例えば、図3に示す床領域判定回路26によって実現される。
床領域判定部16は、前景領域判定部15により判定されたそれぞれの前景領域Fに含まれている複数の画素pn,mの中で、画像Gのy方向で下端の位置に存在している画素を床領域画素として特定する。前景領域Fが、例えば、人間が在る領域であれば、前景領域F内の下端の位置は、人間の足元の位置に対応し、人間の足元の位置は、床の位置に対応する。
床領域判定部16は、それぞれの前景領域Fに含まれている床領域画素の全てを含む領域が、それぞれの画像Gの中の床領域Yであると判定する。
前景領域Fに含まれている複数の画素pn,mのうち、画像Gのy方向で下端の位置に存在している画素は、前景領域Fに含まれている複数の画素pn,mのうち、x座標が同一の複数の画素の中で、y座標が最も小さい画素である。
床領域判定部16は、床領域Yの判定結果として、例えば、床領域Yが存在している、画像G内の座標を示すデータを制御部3及び壁領域判定部17のそれぞれに出力する。
The floor area determination unit 16 is realized by, for example, the floor area determination circuit 26 shown in FIG.
The floor area determination unit 16 exists at the lower end position in the y direction of the image G m among the plurality of pixels pn and m included in each foreground area F m determined by the foreground area determination unit 15. The pixel is specified as a floor area pixel. If the foreground area F m is, for example, an area where a human is present, the position of the lower end in the foreground area F m corresponds to the position of the human foot, and the position of the human foot corresponds to the position of the floor. ..
The floor area determination unit 16 determines that the area including all the floor area pixels included in each foreground area F m is the floor area Y m in each image G m.
Of the plurality of pixels p n, m included in the foreground region F m , the pixel existing at the lower end position in the y direction of the image G m is the plurality of pixels p included in the foreground region F m. Of n and m , among a plurality of pixels having the same x-coordinate, the pixel has the smallest y-coordinate.
As a determination result of the floor area Y m , the floor area determination unit 16 inputs, for example, data indicating coordinates in the image G m in which the floor area Y m exists to each of the control unit 3 and the wall area determination unit 17. Output.

壁領域判定部17は、例えば、図3に示す壁領域判定回路27によって実現される。
壁領域判定部17は、窓領域判定部13により判定された窓領域Wと、床領域判定部16により判定された床領域Yとに基づいて、対象領域の中の壁領域Kを判定する。壁領域Kの判定方法は、後述する。
壁領域判定部17は、壁領域Kの判定結果として、例えば、壁領域Kが存在している、画像G内の座標を示すデータを制御部3に出力する。
The wall area determination unit 17 is realized by, for example, the wall area determination circuit 27 shown in FIG.
Wall area determining unit 17, and the window area W m determined by the window region judgment section 13, on the basis of the a floor area Y m determined by the floor area determination unit 16, a wall area K m in the target area judge. The method for determining the wall area K m will be described later.
Wall area determining unit 17, as the determination result of the wall area K m, for example, outputs wall area K m is present, the data indicating the coordinates within the image G m to the control unit 3.

図2では、室内レイアウト推定装置2の構成要素である画像記憶部10、外気温記憶部11、類似度算出部12、窓領域判定部13、標準偏差算出部14、前景領域判定部15、床領域判定部16及び壁領域判定部17のそれぞれが、図3に示すような専用のハードウェアによって実現されるものを想定している。即ち、室内レイアウト推定装置2が、画像記憶回路20、外気温記憶回路21、類似度算出回路22、窓領域判定回路23、標準偏差算出回路24、前景領域判定回路25、床領域判定回路26及び壁領域判定回路27によって実現されるものを想定している。 In FIG. 2, the image storage unit 10, the outside air temperature storage unit 11, the similarity calculation unit 12, the window area determination unit 13, the standard deviation calculation unit 14, the foreground area determination unit 15, and the floor, which are the components of the indoor layout estimation device 2, are shown. It is assumed that each of the area determination unit 16 and the wall area determination unit 17 is realized by dedicated hardware as shown in FIG. That is, the indoor layout estimation device 2 includes an image storage circuit 20, an outside air temperature storage circuit 21, a similarity calculation circuit 22, a window area determination circuit 23, a standard deviation calculation circuit 24, a foreground area determination circuit 25, a floor area determination circuit 26, and the like. It is assumed that it is realized by the wall area determination circuit 27.

ここで、画像記憶回路20及び外気温記憶回路21のそれぞれは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)等の不揮発性又は揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、あるいは、DVD(Digital Versatile Disc)が該当する。
また、類似度算出回路22、窓領域判定回路23、標準偏差算出回路24、前景領域判定回路25、床領域判定回路26及び壁領域判定回路27のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、又は、これらを組み合わせたものが該当する。
Here, each of the image storage circuit 20 and the outside temperature storage circuit 21 is, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), and an EPROM (Epil). It corresponds to a non-volatile or volatile semiconductor memory such as Read Only Memory), a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, or a DVD (Digital Versaille Disc).
Further, each of the similarity calculation circuit 22, the window area determination circuit 23, the standard deviation calculation circuit 24, the foreground area determination circuit 25, the floor area determination circuit 26 and the wall area determination circuit 27 is, for example, a single circuit or a composite circuit. A programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a combination thereof is applicable.

室内レイアウト推定装置2の構成要素は、専用のハードウェアによって実現されるものに限るものではなく、室内レイアウト推定装置2が、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現されるものであってもよい。
ソフトウェア又はファームウェアは、プログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、あるいは、DSP(Digital Signal Processor)が該当する。
図5は、室内レイアウト推定装置2が、ソフトウェア又はファームウェア等によって実現される場合のコンピュータのハードウェア構成図である。
室内レイアウト推定装置2が、ソフトウェア又はファームウェア等によって実現される場合、画像記憶部10及び外気温記憶部11のそれぞれがコンピュータのメモリ31上に構成される。類似度算出部12、窓領域判定部13、標準偏差算出部14、前景領域判定部15、床領域判定部16及び壁領域判定部17の処理手順をコンピュータに実行させるためのプログラムがメモリ31に格納される。そして、コンピュータのプロセッサ32がメモリ31に格納されているプログラムを実行する。
The components of the indoor layout estimation device 2 are not limited to those realized by dedicated hardware, but the indoor layout estimation device 2 is realized by software, firmware, or a combination of software and firmware. There may be.
The software or firmware is stored as a program in the memory of the computer. A computer means hardware that executes a program, and corresponds to, for example, a CPU (Central Processing Unit), a central processing unit, a processing unit, a computing device, a microprocessor, a microcomputer, a processor, or a DSP (Digital Signal Processor). do.
FIG. 5 is a hardware configuration diagram of a computer when the indoor layout estimation device 2 is realized by software, firmware, or the like.
When the indoor layout estimation device 2 is realized by software, firmware, or the like, each of the image storage unit 10 and the outside air temperature storage unit 11 is configured on the memory 31 of the computer. A program for causing a computer to execute the processing procedures of the similarity calculation unit 12, the window area determination unit 13, the standard deviation calculation unit 14, the foreground area determination unit 15, the floor area determination unit 16, and the wall area determination unit 17 is stored in the memory 31. Stored. Then, the processor 32 of the computer executes the program stored in the memory 31.

また、図3では、室内レイアウト推定装置2の構成要素のそれぞれが専用のハードウェアによって実現される例を示し、図5では、室内レイアウト推定装置2が、ソフトウェア又はファームウェア等によって実現される例を示している。しかし、これは一例に過ぎず、室内レイアウト推定装置2における一部の構成要素が専用のハードウェアによって実現され、残りの構成要素がソフトウェア又はファームウェア等によって実現されるものであってもよい。 Further, FIG. 3 shows an example in which each of the components of the indoor layout estimation device 2 is realized by dedicated hardware, and FIG. 5 shows an example in which the indoor layout estimation device 2 is realized by software, firmware, or the like. Shows. However, this is only an example, and some components in the indoor layout estimation device 2 may be realized by dedicated hardware, and the remaining components may be realized by software, firmware, or the like.

次に、図1に示す空気調和機の動作について説明する。
赤外線カメラ1は、一定の時間間隔Δtで、対象領域を繰り返し撮像し、対象領域の画像として、撮像時刻tが互いに異なるM個の画像G〜Gを室内レイアウト推定装置2に出力する。
赤外線カメラ1から出力されたM個の画像G〜Gは、室内レイアウト推定装置2の画像記憶部10に記憶される。画像記憶部10には、例えば、過去24時間分の画像Gが記憶される。
Next, the operation of the air conditioner shown in FIG. 1 will be described.
Infrared camera 1, at regular time intervals Delta] t, imaged repeatedly target area as the image of the target region, and outputs the image G 1 ~G M of M where the imaging time t are different from each other in the room layout estimation device 2.
Image G 1 ~G M of the M output from the infrared camera 1 is stored in the image storage unit 10 of the indoor layout estimation device 2. The image storage unit 10, for example, images G m for the past 24 hours are stored.

図6は、室内レイアウト推定装置2の処理手順である室内レイアウト推定方法を示すフローチャートである。
類似度算出部12は、画像記憶部10から、撮像時刻tが互いに異なるM個の画像G〜Gを取得する。
現在の時刻が例えば19時00分であれば、類似度算出部12は、画像記憶部10から、19時00分を起点として、例えば過去12時間分の画像Gを取得する。
図7は、過去12時間分の画像Gのそれぞれに含まれているN個の画素p1,m〜pN,mのうち、窓領域Wに含まれている或る1つの画素pn,mの画素値pdn,mの時間的な推移の一例を示す説明図である。
FIG. 6 is a flowchart showing an indoor layout estimation method which is a processing procedure of the indoor layout estimation device 2.
Similarity calculation unit 12, from the image storage unit 10, the imaging time t to obtain the M different image G 1 ~G M together.
If the current time, for example 00 pm 19, similarity calculation unit 12, from the image storage unit 10, starting from the 00 pm 19, for example, acquires image G m for the past 12 hours.
FIG. 7 shows a pixel p included in the window area W m among the N pixels p 1, m to p N, m included in each of the images G m for the past 12 hours. n, is an explanatory diagram showing an example of temporal transition of pixel values pd n, m of the m.

また、類似度算出部12は、外気温記憶部11から、測定時刻t’が互いに異なるM個の外気温T〜Tを取得する。
現在の時刻が19時00分であれば、類似度算出部12は、外気温記憶部11から、19時00分を起点として、過去12時間分の外気温Tを取得する。
ここでは、類似度算出部12が、過去12時間分の画像Gを取得し、過去12時間分の外気温Tを取得している。しかし、これは一例に過ぎず、類似度算出部12が、例えば、過去24時間分の画像Gを取得し、過去24時間分の外気温Tを取得するようにしてもよい。
Also, the similarity calculating unit 12, from the outside temperature storage unit 11, the measurement time t 'to obtain the M different outside air temperature T 1 through T M together.
If the current time is 00 minutes at 19, the similarity calculation unit 12, from the outside temperature storage unit 11, starting from the 00 pm 19 obtains the outside air temperature T m of a last 12 hours.
Here, the similarity calculating unit 12 obtains the image G m of the last 12 hours, we have obtained outside air temperature T m of a last 12 hours. However, this is only an example, the similarity calculating unit 12, for example, acquires image G m for the past 24 hours, may be obtained outside air temperature T m of a last 24 hours.

類似度算出部12は、画像Gに含まれているN個の画素p1,m〜pN,mのそれぞれの評価値S〜Sとして、N個の画素p1,m〜pN,mにおけるそれぞれの画素値pd1,m〜pdN,mの時間的な推移と、外気温Tの時間的な推移との類似度を算出する(図6のステップST1)。
例えば、画素pn,mの画素値pdn,mの時間的な推移と、外気温Tの時間的な推移との類似度である評価値Sは、例えば、以下の式(1)のように表される。

Figure 2021019768
The similarity calculation unit 12 has N pixels p 1, m to p as evaluation values S 1 to NS of N pixels p 1, m to p N, m included in the image G m. The degree of similarity between the temporal transition of each pixel value pd 1, m to pd N, m in N and m and the temporal transition of the outside temperature T m is calculated (step ST1 in FIG. 6).
For example, a temporal transition of the pixel p n, pixel values pd n, m of the m, the evaluation value S n is the degree of similarity between the temporal changes of the outside air temperature T m is for example, the following formula (1) It is expressed as.

Figure 2021019768

図2に示す室内レイアウト推定装置2では、類似度算出部12が、画素pn,mの評価値Sとして、式(1)で表される類似度を算出している。しかし、画素pn,mの評価値Sとして、画素値pdn,mの時間的な推移と、外気温Tの時間的な推移との類似度を算出することができればよく、式(1)で表される類似度に限るものではない。
図8は、類似度算出部12による評価値S〜Sの算出結果の一例を示す説明図である。図8において、黒色に近い領域ほど、類似度である評価値Sが高い領域であることを示している。
類似度算出部12は、算出したそれぞれの評価値S〜Sを窓領域判定部13に出力する。
In the indoor layout estimation apparatus 2 shown in FIG. 2, the similarity calculating unit 12, the pixel p n, as the evaluation value S n of m, it calculates the degree of similarity represented by the formula (1). However, well-pixels p n, as the evaluation value S n of m, the pixel values pd n, and temporal changes in m, if it is possible to calculate the similarity between the temporal changes of the outside air temperature T m, the formula ( It is not limited to the degree of similarity represented by 1).
Figure 8 is an explanatory diagram showing an example of calculation results of evaluation value S 1 to S N by the similarity calculation unit 12. 8, a region closer to black, indicating a similarity evaluation value S n is higher regions.
Similarity calculation unit 12 outputs the respective evaluation values S 1 to S N of calculated in the window region judgment section 13.

窓領域判定部13は、画像記憶部10から、撮像時刻tが互いに異なるM個の画像G〜Gのうち、いずれか1つの画像Gを取得する。窓領域判定部13が取得する1つの画像Gは、M個の画像G〜Gのうちのいずれの画像であってもよい。窓領域判定部13は、例えば、撮像時刻tが最新の時刻の画像Gを取得してもよいし、撮像時刻tが最新の時刻よりも古い時刻の画像GM−1を取得してもよい。
窓領域判定部13は、類似度算出部12により算出されたそれぞれの評価値S〜Sと、第1の閾値Thとを比較する。
窓領域判定部13は、取得した画像Gに含まれている画素pn,mの評価値Sが第1の閾値Thよりも大きければ(図6のステップST2:YESの場合)、画素pn,mが、窓領域W内の画素であると判定する(図6のステップST3)。
画素pn,mの評価値Sが第1の閾値Th以下であれば(図6のステップST2:NOの場合)、画素pn,mは、窓領域W外の画素である。
Window region judgment section 13, from the image storage unit 10, among the image G 1 ~G M of M where the imaging time t are different from each other, to obtain any one of the images G m. One image G m of the window region judgment section 13 obtains can be any of the image of the M image G 1 ~G M. Window region judgment section 13 may, for example, an imaging time t may acquire the image G M of the latest time, also the imaging time t acquires image G M-1 of the old time than the latest time good.
Window region judgment section 13 compares the respective evaluation values S 1 to S N calculated by the similarity calculation unit 12, first the threshold Th 1.
Window region judgment section 13, a pixel p n included in the image G m obtained, larger evaluation value S n of m than the first threshold value Th 1 (step of FIG. 6 ST2: YES), of It is determined that the pixels pn and m are the pixels in the window area W m (step ST3 in FIG. 6).
Pixel p n, if the evaluation value S n of the m first threshold Th 1 or less (step of FIG. 6 ST2: in the case of NO), the pixel p n, m is a window area W m outside the pixel.

窓領域判定部13は、取得した画像Gに含まれているN個の画素p1,m〜pN,mの中で、窓領域W内の画素であると判定した全ての画素pn,mを含む領域が、画像Gの中の窓領域Wであると判定する(図6のステップST4)。
図9は、窓領域判定部13による窓領域Wの判定結果の一例を示す説明図である。図9において、斜線が施されている領域は、窓領域Wである。なお、図9では、白色に近い領域ほど、温度が高い領域である。
窓領域判定部13は、窓領域Wの判定結果として、例えば、窓領域Wが存在している、画像G内の座標を示すデータを制御部3及び壁領域判定部17のそれぞれに出力する。
The window area determination unit 13 has determined that all the pixels p among the N pixels p 1, m to p N, m included in the acquired image G m are the pixels in the window area W m. It is determined that the region including n and m is the window region W m in the image G m (step ST4 in FIG. 6).
FIG. 9 is an explanatory diagram showing an example of a determination result of the window area W m by the window area determination unit 13. In FIG. 9, the shaded area is the window area W m . In FIG. 9, the region closer to white is the region where the temperature is higher.
As a determination result of the window area W m , the window area determination unit 13 inputs, for example, data indicating coordinates in the image G m in which the window area W m exists to each of the control unit 3 and the wall area determination unit 17. Output.

標準偏差算出部14の画素群特定部14aは、画像記憶部10から、撮像時刻tが互いに異なるM個の画像G〜Gを取得する。
画素群特定部14aは、M個の画像G〜Gのそれぞれに含まれている画素p1,1〜pN,1、p1,2〜pN,2、・・・、p1,M〜pN,Mの中で、画素位置が互いに同一の画素を含むN個の画素群(1)〜(N)のそれぞれを特定する。
M個の画像G〜Gのそれぞれに含まれている画素p1,1〜pN,1、p1,2〜pN,2、・・・、p1,M〜pN,Mの中で、例えば、M個の画素pn,1〜pn,Mは、画素位置が互いに同一の画素であり、画素群(n)に含まれている。
Pixel group identifying unit 14a of the standard deviation calculation unit 14, from the image storage unit 10, the imaging time t to obtain the M different image G 1 ~G M together.
The pixel group specifying unit 14a includes pixels p 1 , 1 to p N, 1 , p 1 , 2 to p N, 2, ..., P 1 included in each of the M images G 1 to GM. , M to p N, M , each of N pixel groups (1) to (N) including pixels having the same pixel position is specified.
Pixels p 1,1 to p N, 1 , p 1 , 2, to p N, 2 , ..., P 1, M to p N, M included in each of the M images G 1 to GM. Among them, for example, M pixels pn, 1 to pn, M are pixels having the same pixel position and are included in the pixel group (n).

標準偏差算出部14の偏差算出処理部14bは、以下の式(2)に示すように、画素群特定部14aにより特定された画素群(n)の評価値vとして、画素群(n)に含まれているM個の画素pn,1〜pn,Mにおける画素値pdn,1〜pdn,Mの標準偏差を算出する(図6のステップST5)。

Figure 2021019768

偏差算出処理部14bは、算出したそれぞれの評価値v〜vを前景領域判定部15に出力する。Deviation calculating unit 14b of the standard deviation calculation unit 14, as shown in the following equation (2), as an evaluation value v n of the specified pixels by the pixel group specifier 14a (n), the pixel group (n) calculated including M pixels p n, 1 ~p n, pixel values in the M pd n, 1 ~pd n, the standard deviation of M (step ST5 in FIG. 6).

Figure 2021019768

The deviation calculation processing unit 14b outputs the calculated evaluation values v 1 to v N to the foreground region determination unit 15.

前景領域判定部15は、画像記憶部10から、撮像時刻tが互いに異なるM個の画像G〜Gを取得する。
前景領域判定部15は、標準偏差算出部14により算出されたそれぞれの評価値v〜vと第2の閾値Thとを比較する。
前景領域判定部15は、N個の画素群(1)〜(N)の中で、評価値v(n=1,・・・,N)が第2の閾値Thよりも大きければ(図6のステップST6:YESの場合)、画素群(n)に含まれている画素pn,mが、前景領域F内の画素であると判定する(図6のステップST7)。
複数の画素群(1)〜(N)の中で、評価値vが第2の閾値Th以下であれば(図6のステップST6:NOの場合)、画素群(n)に含まれている画素pn,mは、背景領域B内の画素である。
背景領域B内の画素pn,mの画素値pdn,mは、時間が経過しても、ほとんど変化しないため、背景領域B内の画素pn,mを含む画素群(n)の評価値vは、第2の閾値Th以下となる可能性が高い。
一方、前景領域F内の画素pn,mの画素値pdn,mは、時間の経過に伴って変化するため、前景領域F内の画素pn,mを含む画素群(n)の評価値vは、第2の閾値Thよりも大きくなる可能性が高い。
なお、窓領域W内の画素pn,mの画素値pdn,mについても、時間の経過に伴って変化する。しかし、窓領域W内の画素pn,mの画素値pdn,mの変化は、人間等の移動に伴う画素値pdn,mの変化と比べると、極めて小さい。したがって、窓領域W内の画素pn,mを含む画素群(n)の評価値vは、第2の閾値Th以下となる可能性が高い。
Foreground region determining unit 15, from the image storage unit 10, the imaging time t to obtain the M different image G 1 ~G M together.
The foreground region determination unit 15 compares the respective evaluation values v 1 to v N calculated by the standard deviation calculation unit 14 with the second threshold value Th 2 .
In the foreground region determination unit 15, if the evaluation value v n (n = 1, ..., N) is larger than the second threshold value Th 2 in the N pixel groups (1) to (N) ( In step ST6 of FIG. 6: YES), it is determined that the pixels pn and m included in the pixel group (n) are the pixels in the foreground region F m (step ST7 of FIG. 6).
A plurality of pixel groups (1) in a ~ (N), the evaluation value v if n is a second threshold value Th 2 or less (step of FIG. 6 ST6: in the case of NO), the included in the pixel group (n) The pixels pn and m are the pixels in the background area B m.
Pixel p n, pixel values pd n of m within the background region B m, m, since the time is also passed, hardly changes, pixel group including a pixel p n, m within the background region B m (n) The evaluation value v n of is likely to be equal to or less than the second threshold value Th 2.
On the other hand, the pixel p n, pixel values pd n, m of the m in the foreground region F m, in order to change over time, the pixel p n in the foreground region F m, a pixel group including m (n) The evaluation value v n of is likely to be larger than the second threshold value Th 2.
The pixel values pd n, m of the pixels pn, m in the window area W m also change with the passage of time. However, the change in the pixel values pd n, m of the pixels pn, m in the window region W m is extremely small as compared with the change in the pixel values pd n, m due to the movement of a human being or the like. Therefore, the evaluation value v n of the pixel group (n) including the pixels pn and m in the window region W m is likely to be equal to or less than the second threshold value Th 2.

前景領域判定部15は、M個の画像G〜Gのそれぞれに含まれている画素p1,1〜pN,1、p1,2〜pN,2、・・・、p1,M〜pN,Mのうち、前景領域F内の画素であると判定した全ての画素pn,mを含む領域が、それぞれの画像Gの中の前景領域Fであると判定する(図6のステップST8)。
前景領域判定部15は、前景領域Fの判定結果として、例えば、前景領域Fが存在している、画像G内の座標を示すデータを床領域判定部16に出力する。
The foreground region determination unit 15 includes pixels p 1 , 1 to p N, 1 , p 1 , 2 to p N, 2, ..., P 1 included in each of the M images G 1 to GM. determination, M ~p n, among the M, all the pixels p n is determined that the pixels in the foreground area F m, a region including the m is the foreground region F m in each of the images G m (Step ST8 in FIG. 6).
Foreground region determining unit 15, as the determination result of the foreground region F m, for example, and outputs the foreground region F m is present, the data indicating the coordinates within the image G m in the floor area determination unit 16.

図10は、M個の撮像画像G〜Gのうち、ある1つの画像Gの一例を示す説明図である。
図11は、M個の撮像画像G〜Gのうち、ある1つの画像Gにおける背景領域Bと前景領域Fとを示す説明図である。図11において、黒色の領域は、背景領域Bと判定された領域であり、白色の領域は、前景領域Fと判定された領域である。
図11の例では、前景領域Fが、人間が存在している領域(以下、「人間領域H」と称する)と概ね一致している。なお、図11では、人間領域Hの表記は省略されている。
図2に示す室内レイアウト推定装置2では、前景領域Fが人間領域Hと一致しているとして、後述する床領域判定部16が、前景領域Fに基づいて、床領域Yを判定する。
10, among the M captured image G 1 ~G M, is an explanatory diagram showing an example of a single image G m.
FIG. 11 is an explanatory diagram showing a background region B m and a foreground region F m in a certain image G m among the M captured images G 1 to GM. In FIG. 11, the black region is the region determined to be the background region B m , and the white region is the region determined to be the foreground region F m.
In the example of FIG. 11, the foreground region F m substantially coincides with the region in which a human exists (hereinafter, referred to as “human region H m”). In FIG. 11, denoted human region H m is omitted.
In the indoor layout estimation apparatus 2 shown in FIG. 2, as a foreground region F m coincides with the human region H m, floor area determination unit 16 to be described later, based on the foreground area F m, determine the bed area Y m do.

床領域判定部16は、前景領域判定部15から、前景領域Fが存在している、画像G内の座標を示すデータを取得する。
床領域判定部16は、取得した座標を示すデータに基づいて、M個の画像G〜Gにおけるそれぞれの前景領域Fに含まれている複数の画素pn,mを特定する。
床領域判定部16は、それぞれの前景領域Fに含まれている複数の画素pn,mの中で、画像Gのy方向で、下端の位置に存在している画素を床領域画素として特定する。
前景領域Fが人間領域Hと一致していれば、前景領域F内の下端の位置は、人間の足元の位置に対応し、人間の足元の位置は、床の位置に対応する。通常、人間は、時間とともに移動する。これは、撮像時刻tが互いに異なるM個の撮像画像G〜Gのそれぞれにおける人間の位置、つまり、前景領域F〜Fの位置は互いに異なるものとなり、床の位置に対応する前景領域F〜F内の下端の位置も互いに異なるものとなることを意味する。したがって、撮像時刻tが互いに異なるM個の撮像画像G〜Gにおける前景領域F〜F内の下端の位置を総合することにより、床領域Yを推定することができる。
The floor area determination unit 16 acquires data indicating the coordinates in the image G m in which the foreground area F m exists from the foreground area determination unit 15.
Floor area determination unit 16, based on the data indicating the acquired coordinate, identifies a plurality of pixels p n, m included in each of the foreground region F m in the M image G 1 ~G M.
Floor area determination unit 16, a plurality of pixels p n included in each of the foreground region F m, in m, in the y direction of the image G m, floor area pixel pixel present in the position of the lower end Specify as.
If the foreground region F m coincides with the human region H m , the position of the lower end in the foreground region F m corresponds to the position of the human foot, and the position of the human foot corresponds to the position of the floor. Humans usually move over time. Foreground This human positions at each imaging time t is different M pieces of the captured image G 1 ~G M, i.e., the position of the foreground region F 1 to F M becomes different from each other, which corresponds to the floor position the position of the lower end of the area F 1 to F M also means that the different from each other. Therefore, by imaging time t has overall position of the lower end of the foreground region F 1 to F M in M different captured image G 1 ~G M to each other, it is possible to estimate the floor area Y m.

床領域判定部16は、前景領域F〜Fのそれぞれに含まれている床領域画素の全てを含む領域が、床領域Yであると判定する(図6のステップST9)。
床領域判定部16は、床領域Yの判定結果として、例えば、床領域Yが存在している、画像G内の座標を示すデータを制御部3及び壁領域判定部17のそれぞれに出力する。
ここでは、床領域判定部16が、鉛直方向で下端の位置に存在している画素を床領域画素として特定している。しかし、これは一例に過ぎず、床領域判定部16が、鉛直方向で下端の位置に存在している画素のほかに、下端の画素の周囲に存在している複数の画素を床領域画素として特定するようにしてもよい。
Floor area determination unit 16, a region including all of the floor area pixels included in each of the foreground region F 1 to F M is determined to be a floor area Y m (step ST9 of FIG. 6).
As a determination result of the floor area Y m , the floor area determination unit 16 inputs, for example, data indicating coordinates in the image G m in which the floor area Y m exists to each of the control unit 3 and the wall area determination unit 17. Output.
Here, the floor area determination unit 16 specifies a pixel existing at the lower end position in the vertical direction as a floor area pixel. However, this is only an example, and the floor area determination unit 16 uses a plurality of pixels existing around the lower end pixel as floor area pixels in addition to the pixel existing at the lower end position in the vertical direction. You may try to specify.

図12は、M個の画像G〜Gにおける前景領域F〜F内の下端の画素を示す説明図である。図12において、白色の領域は、それぞれの前景領域F内の下端の画素を含む領域である。
図12が示している画像は、M個の画像G〜Gにおけるそれぞれの前景領域F内の下端の画素が集められている画像である。
図12では、前景領域F内の下端の画素、前景領域F内の下端の画素、前景領域F内の下端の画素、前景領域F内の下端の画素、前景領域F内の下端の画素、前景領域FM−1内の下端の画素、及び、前景領域F内の下端の画素を例示している。
図13は、床領域判定部16による床領域Yの判定結果の一例を示す説明図である。図13において、横線が施されている領域は、床領域Yである。
図12が示す白色の領域と、図13が示す床領域Yとは、記載の都合上、若干のずれがあるが、概ね一致している。
Figure 12 is an explanatory view showing the lower end of the pixels in the foreground area F 1 to F M in the M image G 1 ~G M. In FIG. 12, the white region is a region including the lower end pixels in each foreground region F m.
Image is a bottom of the image pixels are collected in each of the foreground region F m in the M image G 1 ~G M Figure 12 indicates.
In FIG. 12, the lower end pixel in the foreground area F 1 , the lower end pixel in the foreground area F 2 , the lower end pixel in the foreground area F 3 , the lower end pixel in the foreground area F 4 , and the foreground area F 5 the lower end of the pixel, the lower end of the pixels in the foreground area F M-1, and illustrates the lower end of the pixels in the foreground area F M.
FIG. 13 is an explanatory diagram showing an example of a determination result of the floor area Y m by the floor area determination unit 16. In FIG. 13, the area provided with the horizontal line is the floor area Y m .
White areas 12 are shown, the floor area Y m shown in FIG. 13, for convenience of description, it is somewhat deviated, approximately coincide with each other.

壁領域判定部17は、窓領域判定部13により判定された窓領域Wと、床領域判定部16により判定された床領域Yとに基づいて、対象領域の中の壁領域Kを判定する(図6のステップST10)。
壁領域判定部17は、壁領域Kの判定結果として、例えば、壁領域Kが存在している、画像G内の座標を示すデータを制御部3に出力する。
Wall area determining unit 17, and the window area W m determined by the window region judgment section 13, on the basis of the a floor area Y m determined by the floor area determination unit 16, a wall area K m in the target area Judgment (step ST10 in FIG. 6).
Wall area determining unit 17, as the determination result of the wall area K m, for example, outputs wall area K m is present, the data indicating the coordinates within the image G m to the control unit 3.

以下、壁領域判定部17による壁領域Kの判定処理を具体的に説明する。
壁領域判定部17は、画像記憶部10から、撮像時刻tが異なるM個の画像G〜Gのうち、いずれか1つの画像Gを取得する。壁領域判定部17が取得する1つの撮像画像Gは、M個の撮像画像G〜Gのうちのいずれの撮像画像であってもよい。壁領域判定部17は、例えば、撮像時刻tが最新の時刻の画像Gを取得してもよいし、撮像時刻tが最新の時刻よりも古い時刻の画像GM−1を取得してもよい。
また、壁領域判定部17は、床領域判定部16から、床領域Yが存在している座標を示すデータを取得する。
It will be specifically described below determination process wall area K m by the wall area determination unit 17.
Wall area determining unit 17, from the image storage unit 10, the M image G 1 ~G M of the imaging time t is different, to obtain any one of the images G m. One of the captured image G m of wall area determination unit 17 obtains can be any of the captured image of the M captured image G 1 ~G M. Wall area determining unit 17, for example, an imaging time t may acquire the image G M of the latest time, also the imaging time t acquires image G M-1 of the old time than the latest time good.
Further, the wall area determination unit 17 acquires data indicating the coordinates in which the floor area Y m exists from the floor area determination unit 16.

壁領域判定部17は、床領域Yが存在している座標を示すデータに基づいて、床領域Yに含まれている複数の画素pn,mを特定する。
壁領域判定部17は、図13に示すように、床領域Yに含まれている複数の画素pn,mのうち、画像Gのy方向で上端の画素をそれぞれ特定する。床領域Y内の上端の画素は、床領域Yに含まれている複数の画素pn,mのうち、x座標が同一の複数の画素の中で、y座標が最も大きい画素である。図13では、床領域Y内の上端の画素を9つ例示している。
壁領域判定部17は、図14に示すように、床領域Y内の上端のそれぞれの画素を結ぶ線を含む線を、床面と壁面との境界線に決定する。
図14は、床面と壁面との境界線、床領域Y、及び窓領域Wを示す説明図である。
図14において、横線が施されている領域は、床領域Yであり、斜線が施されている領域は、窓領域Wである。
The wall area determination unit 17 identifies a plurality of pixels pn, m included in the floor area Y m based on the data indicating the coordinates in which the floor area Y m exists.
As shown in FIG. 13, the wall area determination unit 17 identifies the uppermost pixel in the y direction of the image G m among the plurality of pixels pn and m included in the floor area Y m. The upper end of the pixels in the bed area Y m is a plurality contained in the floor area Y m pixel p n, of m, in the x-coordinate of a plurality of identical pixels is the largest pixel y coordinate .. In FIG. 13, nine pixels at the upper end in the floor area Y m are illustrated.
As shown in FIG. 14, the wall area determination unit 17 determines a line including a line connecting each pixel at the upper end in the floor area Y m as a boundary line between the floor surface and the wall surface.
FIG. 14 is an explanatory diagram showing a boundary line between the floor surface and the wall surface, a floor area Y m , and a window area W m.
In FIG. 14, the area with horizontal lines is the floor area Y m , and the area with diagonal lines is the window area W m .

壁領域判定部17は、窓領域判定部13から、窓領域Wが存在している座標を示すデータを取得する。
壁領域判定部17は、窓領域Wが存在している座標を示すデータに基づいて、窓領域Wを特定する。
壁領域判定部17は、画像Gの中で、床面と壁面との境界線よりも、画像Gのy方向でy座標が大きい領域のうち、窓領域W以外の領域が、壁領域Kであると判定する。床面と壁面との境界線よりも、画像Gのy方向でy座標が大きい領域は、図中、床面と壁面との境界線よりも上側の領域である。
壁領域判定部17は、壁領域Kの判定結果として、例えば、壁領域Kが存在している、画像G内の座標を示すデータを制御部3に出力する。
The wall area determination unit 17 acquires data indicating the coordinates in which the window area W m exists from the window area determination unit 13.
The wall area determination unit 17 identifies the window area W m based on the data indicating the coordinates in which the window area W m exists.
In the image G m , the wall area determination unit 17 has a wall in the area other than the window area W m , which has a larger y coordinate in the y direction of the image G m than the boundary line between the floor surface and the wall surface. It is determined that the area is K m. The region where the y coordinate is larger in the y direction of the image G m than the boundary line between the floor surface and the wall surface is a region above the boundary line between the floor surface and the wall surface in the figure.
Wall area determining unit 17, as the determination result of the wall area K m, for example, outputs wall area K m is present, the data indicating the coordinates within the image G m to the control unit 3.

制御部3は、画像記憶部10から、撮像時刻tが互いに異なるM個の画像G〜Gのうち、いずれか1つの画像Gを取得する。制御部3が取得する1つの撮像画像Gは、M個の撮像画像G〜Gのうちのいずれの撮像画像であってもよい。制御部3は、例えば、撮像時刻tが最新の時刻の画像Gを取得してもよいし、撮像時刻tが最新の時刻よりも古い時刻の画像GM−1を取得してもよい。
制御部3は、窓領域判定部13から窓領域Wの判定結果を取得し、床領域判定部16から床領域Yの判定結果を取得し、壁領域判定部17から壁領域Kの判定結果を取得する。
制御部3は、取得したそれぞれの判定結果に基づいて、例えば、エアコン4を制御することで、対象領域内の空気を調整する。
Control unit 3, from the image storage unit 10, among the image G 1 ~G M of M where the imaging time t are different from each other, to obtain any one of the images G m. One of the captured image G m the control unit 3 acquires can be any of the captured image of the M captured image G 1 ~G M. Control unit 3 may, for example, an imaging time t may acquire the image G M of the latest time, the imaging time t may acquire the image G M-1 of the old time than the latest time.
The control unit 3 acquires the determination result of the window area W m from the window area determination unit 13, the determination result of the floor area Y m from the floor area determination unit 16, and the wall area K m from the wall area determination unit 17. Acquire the judgment result.
The control unit 3 adjusts the air in the target region by controlling, for example, the air conditioner 4 based on the acquired determination results.

以下、制御部3による空気の調整例を具体的に説明する。
例えば、窓領域Wの設定温度がTemp、床領域Yの設定温度がTemp、及び、壁領域Kの設定温度がTempであるとする。設定温度Temp、設定温度Temp、及び、設定温度Tempのそれぞれは、制御部3の内部メモリに格納されていてもよいし、図1に示す空気調和機の外部から与えられるものであってもよい。
制御部3は、窓領域Wの判定結果に基づいて、画像Gに含まれているN個の画素p1,m〜pN,mの中から、窓領域Wに含まれている複数の画素pn,mを特定する。
制御部3は、窓領域Wに含まれている複数の画素pn,mの画素値pdn,mが示す温度から、例えば、窓領域Wの平均温度を算出する。
制御部3は、窓領域Wの平均温度が、窓領域Wの設定温度Tempと一致するように、エアコン4を制御する。
Hereinafter, an example of air adjustment by the control unit 3 will be specifically described.
For example, it is assumed that the set temperature of the window area W m is Temp 1 , the set temperature of the floor area Y m is Temp 2 , and the set temperature of the wall area K m is Temp 3. Each of the set temperature Temp 1 , the set temperature Temp 2 , and the set temperature Temp 3 may be stored in the internal memory of the control unit 3, or may be supplied from the outside of the air conditioner shown in FIG. You may.
Control unit 3, based on the determination result of the window area W m, N pixels p 1 contained in the image G m, m ~p N, from among the m, are included in the window region W m Specify a plurality of pixels pn, m .
Control unit 3, a plurality of pixels p n contained in the window region W m, the pixel values pd n of m, the temperature indicated by m, for example, calculates the average temperature of the window area W m.
Control unit 3, the average temperature of the window area W m is to match the set temperature Temp 1 of the window area W m, controls the air conditioner 4.

制御部3は、床領域Yの判定結果に基づいて、画像Gに含まれているN個の画素p1,m〜pN,mの中から、床領域Yに含まれている複数の画素pn,mを特定する。
制御部3は、床領域Yに含まれている複数の画素pn,mの画素値pdn,mが示す温度から、例えば、床領域Yの平均温度を算出する。
制御部3は、床領域Yの平均温度が、床領域Yの設定温度Tempと一致するように、エアコン4を制御する。
Control unit 3, based on the determination result of the floor area Y m, N pieces of pixels included in the image G m p 1, m ~p N , from among the m, are included in the floor area Y m Specify a plurality of pixels pn, m .
Control unit 3, a plurality of pixels p n included in the floor area Y m, the pixel values pd n of m, the temperature indicated by m, for example, calculates the average temperature of the floor area Y m.
Control unit 3, the average temperature of the floor area Y m is to match the set temperature Temp 2 of the floor area Y m, to control the air conditioner 4.

制御部3は、壁領域Kの判定結果に基づいて、画像Gに含まれている複数の画素p1,m〜pN,mの中から、壁領域Kに含まれている複数の画素pn,mを特定する。
制御部3は、壁領域Kに含まれている複数の画素pn,mの画素値pdn,mが示す温度から、例えば、壁領域Kの平均温度を算出する。
制御部3は、壁領域Kの平均温度が、壁領域Kの設定温度Tempと一致するように、エアコン4を制御する。
Based on the determination result of the wall region K m , the control unit 3 includes a plurality of pixels p 1, m to p N, m included in the image G m , which are included in the wall region K m. Pixels pn and m of are specified.
Control unit 3, a plurality of pixels p n included in the wall area K m, the pixel values pd n of m, the temperature indicated by m, for example, calculates the average temperature of the wall area K m.
Control unit 3, the average temperature of the wall area K m is to match the set temperature Temp 3 wall area K m, for controlling the air conditioner 4.

ここでは、制御部3が、窓領域W、床領域Y及び壁領域Kにおけるそれぞれの平均温度を算出している。しかし、これは一例に過ぎず、制御部3が、例えば、窓領域W、床領域Y及び壁領域Kにおけるそれぞれの中間温度を算出するようにしてもよい。この場合、制御部3は、窓領域W等の中間温度が、窓領域W等の設定温度と一致するように、エアコン4を制御する。Here, the control unit 3 calculates the average temperature of each of the window area W m , the floor area Y m, and the wall area K m. However, this is only an example, and the control unit 3 may calculate, for example, the intermediate temperature of each of the window area W m , the floor area Y m, and the wall area K m. In this case, the control unit 3, an intermediate temperature, such as the window area W m is to match the set temperature, such as the window area W m, it controls the air conditioner 4.

以上の実施の形態1では、対象領域を撮像している赤外線カメラ1から出力された画像に含まれている複数の画素のそれぞれの評価値として、複数の画素におけるそれぞれの画素値の時間的な推移と、外気温の時間的な推移との類似度を算出する類似度算出部12と、画像に含まれている複数の画素のうち、類似度算出部12により算出された評価値が第1の閾値よりも大きい画素を含む領域が、画像の中で、窓が在る領域であると判定する窓領域判定部13とを備えるように、室内レイアウト推定装置2を構成した。したがって、室内レイアウト推定装置2は、外気温が変化しても、窓領域の誤検出を防ぐことができる。 In the above-described first embodiment, as the evaluation value of each of the plurality of pixels included in the image output from the infrared camera 1 that is capturing the target area, the temporal value of each pixel value in the plurality of pixels is temporal. The evaluation value calculated by the similarity calculation unit 12 is the first among the plurality of pixels included in the image and the similarity calculation unit 12 that calculates the similarity between the transition and the temporal transition of the outside temperature. The indoor layout estimation device 2 is configured to include a window area determination unit 13 for determining that a region including pixels larger than the threshold value of is a region where a window exists in the image. Therefore, the indoor layout estimation device 2 can prevent erroneous detection of the window area even if the outside air temperature changes.

実施の形態2.
図2に示す室内レイアウト推定装置2では、標準偏差算出部14が、M個の画像G〜Gのそれぞれに含まれている画素p1,1〜pN,1、p1,2〜pN,2、・・・、p1,M〜pN,Mの中で、画素位置が互いに同一の画素を含む複数の画素群(1)〜(N)のそれぞれの評価値v〜vを算出している。
実施の形態2では、M個の画像G〜Gと撮像時刻tが異なる新たな画像が画像記憶部10に記憶される毎に、複数の画素群(1)〜(N)のそれぞれの評価値v〜vを算出する室内レイアウト推定装置2について説明する。ここでは、説明の便宜上、新たな画像がGM+1であるとする。
Embodiment 2.
In the indoor layout estimation device 2 shown in FIG. 2, the standard deviation calculation unit 14 has pixels p 1 , 1 to p N, 1 , p 1, 2 to included in each of the M images G 1 to GM. Among p N, 2 , ..., p 1, M to p N, M , each evaluation value v 1 to a plurality of pixel groups (1) to (N) including pixels having the same pixel position. v N is calculated.
In the second embodiment, each time the M image G 1 ~G M and the imaging time t a new image that is different is stored in the image storage unit 10, a plurality of pixel groups (1) to each of the (N) The indoor layout estimation device 2 for calculating the evaluation values v 1 to v N will be described. Here, for convenience of explanation, it is assumed that the new image is GM + 1 .

以下、実施の形態2に係る室内レイアウト推定装置2について説明する。
実施の形態2に係る室内レイアウト推定装置2の構成は、実施の形態1に係る室内レイアウト推定装置2の構成と同様であり、実施の形態2に係る室内レイアウト推定装置2を示す構成図は、図2である。
Hereinafter, the indoor layout estimation device 2 according to the second embodiment will be described.
The configuration of the indoor layout estimation device 2 according to the second embodiment is the same as the configuration of the indoor layout estimation device 2 according to the first embodiment, and the configuration diagram showing the indoor layout estimation device 2 according to the second embodiment is FIG. 2.

赤外線カメラ1は、M個の画像G〜Gと撮像時刻tが異なる新たな画像GM+1を室内レイアウト推定装置2に出力する。
室内レイアウト推定装置2の画像記憶部10は、新たな画像GM+1を記憶する。
標準偏差算出部14の画素群特定部14aは、新たな画像GM+1が画像記憶部10に記憶されると、画像記憶部10から、新たな画像GM+1を取得する。
画素群特定部14aは、先に取得したM個の画像G〜Gのうち、例えば、最も撮像時刻tが古い画像Gを破棄する。
画素群特定部14aは、M個の画像G〜Gの一部である画像、即ち、破棄していない(M−1)個の画像G〜Gと新たな画像GM+1とを含むM個の画像G〜GM+1のそれぞれに含まれている画素p1,2〜pN,2、p1,3〜pN,3、・・・、p1,M+1〜pN,M+1のうち、画素位置が互いに同一の画素を含むN個の画素群(1)〜(N)のそれぞれを特定する。
Infrared camera 1 outputs the M image G 1 ~G M and the imaging time t is different from a new image G M + 1 to the indoor layout estimation device 2.
The image storage unit 10 of the indoor layout estimation device 2 stores a new image GM + 1 .
When the new image GM + 1 is stored in the image storage unit 10, the pixel group specifying unit 14a of the standard deviation calculation unit 14 acquires the new image GM + 1 from the image storage unit 10.
Pixel group identifying unit 14a, from among the M image G 1 ~G M previously acquired, for example, most image capturing time t discards the old image G 1.
The pixel group identifying unit 14a, the image is part of the M image G 1 ~G M, i.e., not discarded (M-1) pieces of the image G 2 ~G M and a new image G M + 1 pixel p 1, 2 are included in each of the M image G 2 ~G M + 1 containing ~p N, 2, p 1,3 ~p N, 3, ···, p 1, M + 1 ~p N, Among M + 1 , each of N pixel groups (1) to (N) including pixels having the same pixel position is specified.

ここでは、画素群特定部14aが、先に取得したM個の画像G〜Gのうち、最も撮像時刻tが古い画像Gを破棄している。しかし、これは一例に過ぎず、画素群特定部14aが、最も撮像時刻tが古い画像G以外の画像を破棄するようにしてもよい。
また、画素群特定部14aが、先に取得したM個の画像G〜Gのうち、2つ以上の画像を破棄するようにしてもよい。画素群特定部14aは、2つの画像を破棄した場合、破棄していない(M−2)個の画像と新たな画像GM+1とを含む(M−1)個の画像として、画像G〜GM+1のそれぞれに含まれているN個の画素p1,3〜pN,3、p1,4〜pN,4、・・・、p1,M+1〜pN,M+1のうち、画素位置が互いに同一の画素を含むN個の画素群(1)〜(N)のそれぞれを特定する。
Here, pixel group specifying unit 14a is, among the previously acquired M pieces of image G 1 ~G M, most imaging time t is to discard the old image G 1. However, this is only an example, pixel group specifying unit 14a is most imaging time t may be discarded images other than the old image G 1.
The pixel group specifier 14a is, among the M image G 1 ~G M previously acquired, may be discarded two or more images. Pixel group identifying unit 14a, when discard the two images, as discard not in (M-2) including a number and an image and a new image G M + 1 (M-1 ) pieces of images, the image G 3 ~ G M + 1 N-number of the contained in each pixel p 1,3 ~p N, 3, p 1,4 ~p N, 4, ···, p 1, M + 1 ~p N, among the M + 1, pixel Each of the N pixel groups (1) to (N) including the pixels having the same position is specified.

標準偏差算出部14の偏差算出処理部14bは、画素群特定部14aがN個の画素群(1)〜(N)のそれぞれを特定する毎に、実施の形態1と同様に、それぞれの画素群(1)〜(N)の評価値v〜vとして、それぞれの画素群(1)〜(N)に含まれているM個の画素pn,1〜pn,Mにおける画素値pdn,1〜pdn,Mの標準偏差を算出する。
偏差算出処理部14bは、算出したそれぞれの評価値v〜vを前景領域判定部15に出力する。
したがって、実施の形態2に係る室内レイアウト推定装置2では、M個の画像G〜Gと撮像時刻tが異なる新たな画像GM+1が画像記憶部10に記憶される毎に、N個の画素群(1)〜(N)のそれぞれの評価値v〜vが更新される。
In the deviation calculation processing unit 14b of the standard deviation calculation unit 14, each time the pixel group identification unit 14a specifies each of the N pixel groups (1) to (N), each pixel is the same as in the first embodiment. As the evaluation values v 1 to v N of the groups (1) to (N), the pixel values in the M pixels pn, 1 to pn, M included in the respective pixel groups (1) to (N). Calculate the standard deviations of pd n, 1 to pd n, M.
The deviation calculation processing unit 14b outputs the calculated evaluation values v 1 to v N to the foreground region determination unit 15.
Accordingly, in the indoor layout estimation apparatus 2 according to the second embodiment, each time the M image G 1 ~G M and the imaging time t is different from a new image G M + 1 is stored in the image storage unit 10, the N each evaluation value v 1 to v N of the pixel group (1) ~ (N) is updated.

前景領域判定部15は、標準偏差算出部14によりそれぞれの評価値v〜vが更新される毎に、それぞれの評価値v〜vと第2の閾値Thとを比較する。
前景領域判定部15は、実施の形態1と同様に、評価値v(n=1,・・・,N)が第2の閾値Thよりも大きければ、画素群(n)に含まれている画素pn,mが、前景領域F内の画素であると判定する
前景領域判定部15は、M個の画像G〜GM+1のそれぞれに含まれているN個の画素p1,2〜pN,2、p1,3〜pN,3、・・・、p1,M+1〜pN,M+1のうち、前景領域F内の画素であると判定した全ての画素pn,mを含む領域が、画像Gの中の前景領域Fであると判定する。
前景領域判定部15は、前景領域Fの判定結果として、例えば、前景領域Fが存在している、画像G内の座標を示すデータを床領域判定部16に出力する。
Foreground region determining unit 15, the standard deviation calculating section 14 each evaluation value v 1 to v N each time it is updated, comparing each of the evaluation values v 1 to v N and the second threshold value Th 2.
The foreground region determination unit 15 is included in the pixel group (n) if the evaluation value v n (n = 1, ..., N) is larger than the second threshold value Th 2 as in the first embodiment. and it has a pixel p n, m are determined foreground region determining unit 15 that the pixels in the foreground region F m is, n pieces of pixel p 1 contained in each of the M image G 2 ~G M + 1 , 2 to p N, 2 , p 1 , 3 to p N, 3, ..., p 1, M + 1 to p N, M + 1 , all pixels p determined to be pixels in the foreground region F m It is determined that the region including n and m is the foreground region F m in the image G m.
Foreground region determining unit 15, as the determination result of the foreground region F m, for example, and outputs the foreground region F m is present, the data indicating the coordinates within the image G m in the floor area determination unit 16.

以上の実施の形態2では、画素群特定部14aが、赤外線カメラ1から、複数の画像と撮像時刻が異なる新たな画像が出力される毎に、複数の画像の中の一部の画像と新たな画像とを含む複数の画像のそれぞれに含まれている複数の画素の中で、画素位置が互いに同一の画素を含む複数の画素群のそれぞれを特定し、偏差算出処理部14bが、画素群特定部14aによりそれぞれの画素群が特定される毎に、画素群特定部14aにより特定されたそれぞれの画素群の評価値として、それぞれの画素群に含まれている複数の画素における画素値の標準偏差を算出するように、室内レイアウト推定装置2を構成した。したがって、室内レイアウト推定装置2は、外気温が変化しても、窓領域の誤検出を防ぐことができるほか、新たな画像に基づいて、前景領域を判定することができる。 In the second embodiment described above, each time the pixel group specifying unit 14a outputs a new image having a different imaging time from the plurality of images from the infrared camera 1, the pixel group specifying unit 14a is newly added to a part of the images. Among the plurality of pixels included in each of the plurality of images including the same image, each of the plurality of pixel groups including the pixels having the same pixel position is specified, and the deviation calculation processing unit 14b determines the pixel group. Each time each pixel group is specified by the specific unit 14a, the standard of the pixel values in the plurality of pixels included in each pixel group is used as the evaluation value of each pixel group specified by the pixel group identification unit 14a. The indoor layout estimation device 2 was configured to calculate the deviation. Therefore, the indoor layout estimation device 2 can prevent erroneous detection of the window region even if the outside air temperature changes, and can determine the foreground region based on a new image.

実施の形態3.
実施の形態3では、前景領域判定部15により判定された前景領域Fの中で、人間が存在している領域を判定する人間領域判定部18を備えている室内レイアウト推定装置2について説明する。
Embodiment 3.
In the third embodiment, in the foreground region F m determined by the foreground region determining unit 15 will be described indoor layout estimation device 2 that humans are provided for determining human region determining unit 18 a region that is present ..

図15は、実施の形態3に係る室内レイアウト推定装置2を示す構成図である。
図16は、実施の形態3に係る室内レイアウト推定装置2のハードウェアを示すハードウェア構成図である。
図15及び図16において、図2及び図3と同一符号は同一又は相当部分を示すので詳細な説明を省略する。
室内レイアウト推定装置2は、画像記憶部10、外気温記憶部11、類似度算出部12、窓領域判定部13、標準偏差算出部14、前景領域判定部15、人間領域判定部18、床領域判定部16及び壁領域判定部17を備えている。
FIG. 15 is a configuration diagram showing the indoor layout estimation device 2 according to the third embodiment.
FIG. 16 is a hardware configuration diagram showing the hardware of the indoor layout estimation device 2 according to the third embodiment.
In FIGS. 15 and 16, the same reference numerals as those in FIGS. 2 and 3 indicate the same or corresponding portions, and detailed description thereof will be omitted.
The indoor layout estimation device 2 includes an image storage unit 10, an outside air temperature storage unit 11, a similarity calculation unit 12, a window area determination unit 13, a standard deviation calculation unit 14, a foreground area determination unit 15, a human area determination unit 18, and a floor area. A determination unit 16 and a wall area determination unit 17 are provided.

図16に示す室内レイアウト推定装置2では、前景領域判定部15が、前景領域の判定結果として、前景領域Fが存在している、画像G内の座標を示すデータを人間領域判定部18に出力する。
人間領域判定部18は、例えば、図16に示す人間領域判定回路28によって実現される。
人間領域判定部18は、前景領域判定部15により判定されたそれぞれの前景領域Fの中で、人間が存在している領域である人間領域Hを判定する。
人間領域判定部18は、人間領域Hの判定結果として、例えば、人間領域Hが存在している、画像G内の座標を示すデータを制御部3及び床領域判定部16のそれぞれに出力する。
In the indoor layout estimation apparatus 2 shown in FIG. 16, the foreground region determining unit 15, as the determination result of the foreground area, the foreground area F m are present, the human data indicating coordinates in the image G m area determination section 18 Output to.
The human domain determination unit 18 is realized by, for example, the human domain determination circuit 28 shown in FIG.
The human region determination unit 18 determines the human region H m , which is a region in which a human exists, in each foreground region F m determined by the foreground region determination unit 15.
As a determination result of the human region H m , the human region determination unit 18 inputs, for example, data indicating coordinates in the image G m in which the human region H m exists to each of the control unit 3 and the floor area determination unit 16. Output.

図15では、室内レイアウト推定装置2の構成要素である画像記憶部10、外気温記憶部11、類似度算出部12、窓領域判定部13、標準偏差算出部14、前景領域判定部15、人間領域判定部18、床領域判定部16及び壁領域判定部17のそれぞれが、図16に示すような専用のハードウェアによって実現されるものを想定している。即ち、室内レイアウト推定装置2が、画像記憶回路20、外気温記憶回路21、類似度算出回路22、窓領域判定回路23、標準偏差算出回路24、前景領域判定回路25、人間領域判定回路28、床領域判定回路26及び壁領域判定回路27によって実現されるものを想定している。 In FIG. 15, an image storage unit 10, an outside air temperature storage unit 11, a similarity calculation unit 12, a window area determination unit 13, a standard deviation calculation unit 14, a foreground area determination unit 15, and a human being, which are components of the indoor layout estimation device 2. It is assumed that each of the area determination unit 18, the floor area determination unit 16, and the wall area determination unit 17 is realized by dedicated hardware as shown in FIG. That is, the indoor layout estimation device 2 includes an image storage circuit 20, an outside air temperature storage circuit 21, a similarity calculation circuit 22, a window area determination circuit 23, a standard deviation calculation circuit 24, a foreground area determination circuit 25, and a human area determination circuit 28. It is assumed that it is realized by the floor area determination circuit 26 and the wall area determination circuit 27.

ここで、画像記憶回路20及び外気温記憶回路21のそれぞれは、例えば、RAM、ROM、フラッシュメモリ、EPROM、EEPROM等の不揮発性又は揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、あるいは、DVDが該当する。
また、類似度算出回路22、窓領域判定回路23、標準偏差算出回路24、前景領域判定回路25、人間領域判定回路28、床領域判定回路26及び壁領域判定回路27のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、又は、これらを組み合わせたものが該当する。
Here, each of the image storage circuit 20 and the outside temperature storage circuit 21 is, for example, a non-volatile or volatile semiconductor memory such as RAM, ROM, flash memory, EPROM, EEPROM, magnetic disk, flexible disk, optical disk, compact disk. , Mini disc, or DVD.
Further, each of the similarity calculation circuit 22, the window area determination circuit 23, the standard deviation calculation circuit 24, the foreground area determination circuit 25, the human area determination circuit 28, the floor area determination circuit 26, and the wall area determination circuit 27 is, for example, simple. One circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, or a combination thereof is applicable.

室内レイアウト推定装置2の構成要素は、専用のハードウェアによって実現されるものに限るものではなく、室内レイアウト推定装置2が、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現されるものであってもよい。
室内レイアウト推定装置2が、ソフトウェア又はファームウェア等によって実現される場合、画像記憶部10及び外気温記憶部11のそれぞれが、図5に示すコンピュータのメモリ31上に構成される。類似度算出部12、窓領域判定部13、標準偏差算出部14、前景領域判定部15、人間領域判定部18、床領域判定部16及び壁領域判定部17の処理手順をコンピュータに実行させるためのプログラムがメモリ31に格納される。そして、図5に示すコンピュータのプロセッサ32がメモリ31に格納されているプログラムを実行する。
The components of the indoor layout estimation device 2 are not limited to those realized by dedicated hardware, but the indoor layout estimation device 2 is realized by software, firmware, or a combination of software and firmware. There may be.
When the indoor layout estimation device 2 is realized by software, firmware, or the like, each of the image storage unit 10 and the outside air temperature storage unit 11 is configured on the memory 31 of the computer shown in FIG. To make the computer execute the processing procedures of the similarity calculation unit 12, the window area determination unit 13, the standard deviation calculation unit 14, the foreground area determination unit 15, the human area determination unit 18, the floor area determination unit 16, and the wall area determination unit 17. Program is stored in the memory 31. Then, the processor 32 of the computer shown in FIG. 5 executes the program stored in the memory 31.

また、図16では、室内レイアウト推定装置2の構成要素のそれぞれが専用のハードウェアによって実現される例を示し、図5では、室内レイアウト推定装置2が、ソフトウェア又はファームウェア等によって実現される例を示している。しかし、これは一例に過ぎず、室内レイアウト推定装置2における一部の構成要素が専用のハードウェアによって実現され、残りの構成要素がソフトウェア又はファームウェア等によって実現されるものであってもよい。 Further, FIG. 16 shows an example in which each of the components of the indoor layout estimation device 2 is realized by dedicated hardware, and FIG. 5 shows an example in which the indoor layout estimation device 2 is realized by software, firmware, or the like. Shows. However, this is only an example, and some components in the indoor layout estimation device 2 may be realized by dedicated hardware, and the remaining components may be realized by software, firmware, or the like.

次に、図15に示す室内レイアウト推定装置2の動作について説明する。ただし、人間領域判定部18以外は、図2に示す室内レイアウト推定装置2と同様であるため、ここでは、主に、人間領域判定部18の動作について説明する。
前景領域判定部15は、実施の形態1と同様に、前景領域Fを判定すると、前景領域Fの判定結果として、前景領域Fが存在している、画像G内の座標を示すデータを人間領域判定部18に出力する。
Next, the operation of the indoor layout estimation device 2 shown in FIG. 15 will be described. However, since it is the same as the indoor layout estimation device 2 shown in FIG. 2 except for the human area determination unit 18, the operation of the human area determination unit 18 will be mainly described here.
Foreground region determining unit 15, as in the first embodiment, shown when it is determined foreground region F m, as a determination result of the foreground region F m, foreground region F m are present, the coordinates in the image G m The data is output to the human area determination unit 18.

図2に示す室内レイアウト推定装置2では、床領域判定部16が、前景領域Fが人間領域Hと一致しているとして、前景領域Fに基づいて、床領域Yを判定している。しかし、前景領域Fと人間領域Hとが厳密に一致しているとは限らないため、前景領域Fに基づく床領域Yの判定では、床領域Yを誤検出する可能性がある。
人間領域判定部18は、前景領域判定部15から前景領域Fの判定結果を受けると、公知の人体検出方法を用いて、前景領域Fの中で、人間が存在している領域である人間領域Hを判定する。
公知の人体検出方法として、例えば、HOGとSVMとを用いる方法が考えられる。HOG(Histogram of Oriented Gradients)は、局所領域の輝度の勾配方向をヒストグラム化している特徴量である。SVM(Support Vector Machine)は、教師あり学習を用いるパターン識別モデルである。
人間領域判定部18は、人間領域Hの判定結果として、例えば、人間領域Hが存在している、画像G内の座標を示すデータを制御部3及び床領域判定部16のそれぞれに出力する。
In the indoor layout estimation apparatus 2 shown in FIG. 2, the floor area determination section 16, a foreground region F m coincides with the human region H m, based on the foreground area F m, to determine the floor area Y m There is. However, since the foreground region F m and the human region H m do not always exactly match, there is a possibility that the floor region Y m is erroneously detected in the determination of the floor region Y m based on the foreground region F m. be.
Upon receiving the determination result of the foreground region F m from the foreground region determination unit 15, the human region determination unit 18 is a region in which a human exists in the foreground region F m by using a known human body detection method. Determine the human domain H m.
As a known human body detection method, for example, a method using HOG and SVM can be considered. HOG (Histogram of Oriented Gradients) is a feature quantity that histograms the gradient direction of the brightness of a local region. SVM (Support Vector Machine) is a pattern discriminative model using supervised learning.
As a determination result of the human region H m , the human region determination unit 18 inputs, for example, data indicating coordinates in the image G m in which the human region H m exists to each of the control unit 3 and the floor area determination unit 16. Output.

制御部3は、画像記憶部10から、撮像時刻tが互いに異なるM個の画像G〜Gのうち、いずれか1つの画像Gを取得する。制御部3が取得する1つの撮像画像Gは、M個の撮像画像G〜Gのうちのいずれの撮像画像であってもよい。制御部3は、例えば、撮像時刻tが最新の時刻の画像Gを取得してもよいし、撮像時刻tが最新の時刻よりも古い時刻の画像GM−1を取得してもよい。
制御部3は、窓領域判定部13から窓領域Wの判定結果を取得し、床領域判定部16から床領域Yの判定結果を取得し、壁領域判定部17から壁領域Kの判定結果を取得し、人間領域判定部18から人間領域Hの判定結果を取得する。
Control unit 3, from the image storage unit 10, among the image G 1 ~G M of M where the imaging time t are different from each other, to obtain any one of the images G m. One of the captured image G m the control unit 3 acquires can be any of the captured image of the M captured image G 1 ~G M. Control unit 3 may, for example, an imaging time t may acquire the image G M of the latest time, the imaging time t may acquire the image G M-1 of the old time than the latest time.
The control unit 3 acquires the determination result of the window area W m from the window area determination unit 13, the determination result of the floor area Y m from the floor area determination unit 16, and the wall area K m from the wall area determination unit 17. It acquires a determination result, to obtain a determination result of human region H m from a human area determining unit 18.

制御部3は、取得したそれぞれの判定結果に基づいて、例えば、エアコン4を制御することで、対象領域内の空気を調整する。
例えば、人間領域Hの設定温度がTempであるとする。設定温度Tempは、制御部3の内部メモリに格納されていてもよいし、図1に示す空気調和機の外部から与えられるものであってもよい。
制御部3は、人間領域Hの判定結果に基づいて、画像Gに含まれているN個の画素p1,m〜pN,mの中から、人間領域Hに含まれている複数の画素pn,mを特定する。
制御部3は、人間領域Hに含まれている複数の画素pn,mの画素値pdn,mが示す温度から、例えば、人間領域Hの平均温度を算出する。
制御部3は、人間領域Hの平均温度が、人間領域Hの設定温度Tempと一致するように、エアコン4を制御する。
The control unit 3 adjusts the air in the target region by controlling, for example, the air conditioner 4 based on the acquired determination results.
For example, it is assumed that the set temperature of the human region H m is Temp 4. The set temperature Temp 4 may be stored in the internal memory of the control unit 3 or may be supplied from the outside of the air conditioner shown in FIG.
Control unit 3, based on the determination result of human region H m, N pieces of pixels included in the image G m p 1, m ~p N , from among the m, are included in the human region H m Specify a plurality of pixels pn, m .
Control unit 3, a plurality of pixels p n contained in the human region H m, pixel values pd n of m, the temperature indicated by m, for example, calculates the average temperature of the human region H m.
Control unit 3, the average temperature of the human region H m is to match the set temperature Temp 4 human region H m, and controls the air conditioner 4.

ここでは、制御部3が、人間領域Hの平均温度を算出している。しかし、これは一例に過ぎず、制御部3が、例えば、人間領域Hの中間温度を算出するようにしてもよい。この場合、制御部3は、人間領域Hの中間温度が、人間領域Hの設定温度Tempと一致するように、エアコン4を制御する。Here, the control unit 3, which calculates the average temperature of the human region H m. However, this is only an example, the control unit 3, for example, may be calculated intermediate temperature of the human region H m. In this case, the control unit 3, an intermediate temperature of the human region H m is to match the set temperature Temp 4 human region H m, and controls the air conditioner 4.

以上の実施の形態3では、前景領域判定部15により判定された前景領域の中で、人間が存在している領域を判定する人間領域判定部18を備えるように、室内レイアウト推定装置2を構成した。したがって、室内レイアウト推定装置2は、外気温が変化しても、窓領域の誤検出を防ぐことができるほか、人間が存在している領域内の空気を調整することが可能になる。 In the third embodiment, the indoor layout estimation device 2 is configured to include a human area determination unit 18 for determining an area in which a human exists in the foreground area determined by the foreground area determination unit 15. bottom. Therefore, the indoor layout estimation device 2 can prevent erroneous detection of the window region even if the outside air temperature changes, and can also adjust the air in the region where humans are present.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。 It should be noted that, within the scope of the present invention, any combination of embodiments can be freely combined, any component of each embodiment can be modified, or any component can be omitted in each embodiment. ..

この発明は、対象領域の中で、窓が在る領域を判定する室内レイアウト推定装置、室内レイアウト推定方法及び空気調和機に適している。 The present invention is suitable for an indoor layout estimation device, an indoor layout estimation method, and an air conditioner for determining an area where a window exists in a target area.

1 赤外線カメラ、2 室内レイアウト推定装置、3 制御部、4 エアコン、10 画像記憶部、11 外気温記憶部、12 類似度算出部、13 窓領域判定部、14 標準偏差算出部、14a 画素群特定部、14b 偏差算出処理部、15 前景領域判定部、16 床領域判定部、17 壁領域判定部、18 人間領域判定部、20 画像記憶回路、21 外気温記憶回路、22 類似度算出回路、23 窓領域判定回路、24 標準偏差算出回路、25 前景領域判定回路、26 床領域判定回路、27 壁領域判定回路、28 人間領域判定回路、31 メモリ、32 プロセッサ。 1 Infrared camera, 2 Indoor layout estimation device, 3 Control unit, 4 Air conditioner, 10 Image storage unit, 11 Outside temperature storage unit, 12 Similarity calculation unit, 13 Window area determination unit, 14 Standard deviation calculation unit, 14a Pixel group identification Unit, 14b Deviation calculation processing unit, 15 Foreground area determination unit, 16 Floor area determination unit, 17 Wall area determination unit, 18 Human area determination unit, 20 Image storage circuit, 21 Outside temperature storage circuit, 22 Similarity calculation circuit, 23 Window area determination circuit, 24 standard deviation calculation circuit, 25 foreground area determination circuit, 26 floor area determination circuit, 27 wall area determination circuit, 28 human area determination circuit, 31 memory, 32 processors.

Claims (11)

対象領域を撮像している赤外線カメラから出力された画像に含まれている複数の画素のそれぞれの評価値として、前記複数の画素におけるそれぞれの画素値の時間的な推移と、外気温の時間的な推移との類似度を算出する類似度算出部と、
前記画像に含まれている複数の画素のうち、前記類似度算出部により算出された評価値が第1の閾値よりも大きい画素を含む領域が、前記画像の中で、窓が在る領域であると判定する窓領域判定部と
を備えた室内レイアウト推定装置。
As the evaluation values of each of the plurality of pixels included in the image output from the infrared camera that is capturing the target area, the temporal transition of each pixel value in the plurality of pixels and the temporal time of the outside air temperature. The similarity calculation unit that calculates the similarity with the transition,
Of the plurality of pixels included in the image, the region including the pixels whose evaluation value calculated by the similarity calculation unit is larger than the first threshold value is the region in the image where the window is present. An indoor layout estimation device equipped with a window area determination unit for determining the existence.
前記赤外線カメラから出力された複数の画像のそれぞれに含まれている複数の画素の中で、画素位置が互いに同一の複数の画素を含む複数の画素群のそれぞれの評価値として、それぞれの画素群に含まれている複数の画素における画素値の標準偏差を算出する標準偏差算出部と、
前記複数の画素群の中で、前記標準偏差算出部により算出された評価値が第2の閾値よりも大きい画素群を特定し、それぞれの画像に含まれている複数の画素のうち、特定した画素群に含まれている画素を含む領域が、それぞれの画像の中の前景領域であると判定する前景領域判定部と
を備えたことを特徴とする請求項1記載の室内レイアウト推定装置。
Among the plurality of pixels included in each of the plurality of images output from the infrared camera, each pixel group is used as an evaluation value of each of the plurality of pixel groups including the plurality of pixels having the same pixel position. A standard deviation calculation unit that calculates the standard deviation of pixel values in a plurality of pixels included in
Among the plurality of pixel groups, a pixel group in which the evaluation value calculated by the standard deviation calculation unit is larger than the second threshold value is specified, and among the plurality of pixels included in each image, the specified pixel group is specified. The indoor layout estimation device according to claim 1, further comprising a foreground area determination unit for determining that the area including the pixels included in the pixel group is the foreground area in each image.
前記標準偏差算出部は、
前記赤外線カメラから撮像時刻が互いに異なる複数の画像が出力されると、前記複数の画像のそれぞれに含まれている複数の画素の中で、画素位置が互いに同一の画素を含む複数の画素群のそれぞれを特定する画素群特定部と、
前記画素群特定部により特定されたそれぞれの画素群の評価値として、それぞれの画素群に含まれている複数の画素における画素値の標準偏差を算出する偏差算出処理部とを備えていることを特徴とする請求項2記載の室内レイアウト推定装置。
The standard deviation calculation unit
When a plurality of images having different imaging times are output from the infrared camera, among the plurality of pixels included in each of the plurality of images, a plurality of pixel groups including pixels having the same pixel position. Pixel group identification part that identifies each, and
As an evaluation value of each pixel group specified by the pixel group specifying unit, a deviation calculation processing unit for calculating a standard deviation of pixel values in a plurality of pixels included in each pixel group is provided. The indoor layout estimation device according to claim 2, which is characterized.
前記画素群特定部は、前記赤外線カメラから、前記複数の画像と撮像時刻が異なる新たな画像が出力される毎に、前記複数の画像の中の一部の画像と前記新たな画像とを含む複数の画像のそれぞれに含まれている複数の画素の中で、画素位置が互いに同一の画素を含む複数の画素群のそれぞれを特定し、
前記偏差算出処理部は、前記画素群特定部によりそれぞれの画素群が特定される毎に、前記画素群特定部により特定されたそれぞれの画素群の評価値として、それぞれの画素群に含まれている複数の画素における画素値の標準偏差を算出することを特徴とする請求項3記載の室内レイアウト推定装置。
The pixel group specifying unit includes a part of the images and the new image each time a new image having a different imaging time from the plurality of images is output from the infrared camera. Among the plurality of pixels included in each of the plurality of images, each of the plurality of pixel groups including the pixels having the same pixel position is specified.
The deviation calculation processing unit is included in each pixel group as an evaluation value of each pixel group specified by the pixel group specifying unit each time each pixel group is specified by the pixel group specifying unit. The indoor layout estimation device according to claim 3, wherein a standard deviation of pixel values in a plurality of pixels is calculated.
前記前景領域判定部により判定されたそれぞれの前景領域に含まれている複数の画素の中で、前記対象領域が存在している空間の鉛直方向に相当する方向で下端の位置に存在している画素を床領域画素として特定し、それぞれの前景領域に含まれている床領域画素の全てを含む領域が、それぞれの画像の中で、床が在る領域であると判定する床領域判定部を備えたことを特徴とする請求項2記載の室内レイアウト推定装置。 Among the plurality of pixels included in each foreground area determined by the foreground area determination unit, the target area exists at the lower end position in the direction corresponding to the vertical direction of the space where the target area exists. A floor area determination unit that identifies pixels as floor area pixels and determines that the area including all of the floor area pixels included in each foreground area is the area where the floor exists in each image. The indoor layout estimation device according to claim 2, wherein the indoor layout estimation device is provided. 前記窓領域判定部により判定された窓が在る領域と、前記床領域判定部により判定された床が在る領域とに基づいて、それぞれの画像の中で、壁が在る領域を判定する壁領域判定部を備えたことを特徴とする請求項5記載の室内レイアウト推定装置。 Based on the area where the window is determined by the window area determination unit and the area where the floor is determined by the floor area determination unit, the area where the wall is present is determined in each image. The indoor layout estimation device according to claim 5, further comprising a wall area determination unit. 前記前景領域判定部により判定されたそれぞれの前景領域の中で、人間が存在している領域として人間領域を判定する人間領域判定部を備えたことを特徴とする請求項2記載の室内レイアウト推定装置。 The indoor layout estimation according to claim 2, wherein a human area determination unit for determining a human area is provided as an area in which a human exists in each of the foreground areas determined by the foreground area determination unit. Device. 前記人間領域判定部により判定されたそれぞれの人間領域に含まれている複数の画素の中で、前記対象領域が存在している空間の鉛直方向に相当する方向で下端の位置に存在している画素を床領域画素として特定し、それぞれの人間領域に含まれている床領域画素の全てを含む領域が、それぞれの画像の中で、床が在る領域であると判定する床領域判定部を備えたことを特徴とする請求項7記載の室内レイアウト推定装置。 Among the plurality of pixels included in each human area determined by the human area determination unit, the target area exists at the lower end position in the direction corresponding to the vertical direction of the space where the target area exists. A floor area determination unit that identifies pixels as floor area pixels and determines that the area including all of the floor area pixels included in each human area is the area where the floor exists in each image. The indoor layout estimation device according to claim 7, wherein the indoor layout estimation device is provided. 前記窓領域判定部により判定された窓が在る領域と、前記床領域判定部により判定された床が在る領域とに基づいて、それぞれの画像の中で、壁が在る領域を判定する壁領域判定部を備えたことを特徴とする請求項8記載の室内レイアウト推定装置。 Based on the area where the window is determined by the window area determination unit and the area where the floor is determined by the floor area determination unit, the area where the wall is present is determined in each image. The indoor layout estimation device according to claim 8, further comprising a wall area determination unit. 類似度算出部が、対象領域を撮像している赤外線カメラから出力された画像に含まれている複数の画素のそれぞれの評価値として、前記複数の画素におけるそれぞれの画素値の時間的な推移と、外気温の時間的な推移との類似度を算出し、
窓領域判定部が、前記画像に含まれている複数の画素のうち、前記類似度算出部により算出された評価値が第1の閾値よりも大きい画素を含む領域が、前記画像の中で、窓が在る領域であると判定する
室内レイアウト推定方法。
The similarity calculation unit sets the evaluation value of each of the plurality of pixels included in the image output from the infrared camera capturing the target area as the temporal transition of each pixel value in the plurality of pixels. , Calculate the similarity with the temporal transition of the outside temperature,
Among the plurality of pixels included in the image, the area including the pixel whose evaluation value calculated by the similarity calculation unit is larger than the first threshold value is included in the image. An indoor layout estimation method that determines that the area has windows.
請求項1から請求項9のうちのいずれか1項記載の室内レイアウト推定装置と、
前記室内レイアウト推定装置における領域の判定結果に基づいて、前記対象領域内の空気を調整する制御部と
を備えた空気調和機。
The indoor layout estimation device according to any one of claims 1 to 9, and the indoor layout estimation device.
An air conditioner including a control unit that adjusts the air in the target area based on the determination result of the area in the indoor layout estimation device.
JP2021536578A 2019-08-01 2019-08-01 Indoor layout estimation device, indoor layout estimation method and air conditioner Active JP6987314B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/030267 WO2021019768A1 (en) 2019-08-01 2019-08-01 Indoor layout estimation device, indoor layout estimation method, and air conditioner

Publications (2)

Publication Number Publication Date
JPWO2021019768A1 true JPWO2021019768A1 (en) 2021-11-18
JP6987314B2 JP6987314B2 (en) 2021-12-22

Family

ID=74230575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021536578A Active JP6987314B2 (en) 2019-08-01 2019-08-01 Indoor layout estimation device, indoor layout estimation method and air conditioner

Country Status (2)

Country Link
JP (1) JP6987314B2 (en)
WO (1) WO2021019768A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266188A (en) * 2009-04-15 2010-11-25 Panasonic Corp Air conditioning system
JP2014134376A (en) * 2014-04-10 2014-07-24 Mitsubishi Electric Corp Air conditioner
JP2016008796A (en) * 2014-06-25 2016-01-18 三菱電機株式会社 Indoor unit of air conditioning device and air conditioning device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266188A (en) * 2009-04-15 2010-11-25 Panasonic Corp Air conditioning system
JP2014134376A (en) * 2014-04-10 2014-07-24 Mitsubishi Electric Corp Air conditioner
JP2016008796A (en) * 2014-06-25 2016-01-18 三菱電機株式会社 Indoor unit of air conditioning device and air conditioning device

Also Published As

Publication number Publication date
JP6987314B2 (en) 2021-12-22
WO2021019768A1 (en) 2021-02-04

Similar Documents

Publication Publication Date Title
US9715627B2 (en) Area information estimating device, area information estimating method, and air conditioning apparatus
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
CN105979134B (en) Image processing apparatus, image processing method, and image processing system
KR20170133269A (en) Video processing apparatus, video processing method, and program
US20090220123A1 (en) Apparatus and method for counting number of objects
US20090175500A1 (en) Object tracking apparatus
JP7217058B2 (en) Detecting the presence of one or more human occupants in the built space in real time using one or more thermographic cameras and one or more RGB-D sensors to estimate thermal comfort
BR102012030034B1 (en) system and method for generating a raw depth map
JP2017041022A (en) Information processor, information processing method and program
JP6024658B2 (en) Object detection apparatus, object detection method, and program
JP2011174648A (en) Apparatus and method for image processing, and air conditioning control apparatus
US5805718A (en) Clothing amount measuring apparatus and method using image processing
JPWO2019064375A1 (en) Information processing systems, control methods, and programs
US20150146006A1 (en) Display control apparatus and display control method
US10762372B2 (en) Image processing apparatus and control method therefor
WO2019033575A1 (en) Electronic device, face tracking method and system, and storage medium
CN113143342A (en) Method for determining oral sampling site, sampling robot and computer storage medium
TWI624806B (en) Object tracking device and method
JP6987314B2 (en) Indoor layout estimation device, indoor layout estimation method and air conditioner
KR20140114594A (en) Auto-Camera Calibration Method Based on Human Object Tracking
KR101290517B1 (en) Photographing apparatus for tracking object and method thereof
JP2019121904A (en) Suspicious person detection apparatus, suspicious person detection method and suspicious person detection computer program
JP5805511B2 (en) Image monitoring device
JP5613147B2 (en) Camera parameter measuring device, camera parameter measuring method, and program
JPH09322153A (en) Automatic monitor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210714

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211130

R150 Certificate of patent or registration of utility model

Ref document number: 6987314

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150