WO2011155439A1 - Motion detection device - Google Patents

Motion detection device Download PDF

Info

Publication number
WO2011155439A1
WO2011155439A1 PCT/JP2011/062927 JP2011062927W WO2011155439A1 WO 2011155439 A1 WO2011155439 A1 WO 2011155439A1 JP 2011062927 W JP2011062927 W JP 2011062927W WO 2011155439 A1 WO2011155439 A1 WO 2011155439A1
Authority
WO
WIPO (PCT)
Prior art keywords
areas
area
image
motion
camera
Prior art date
Application number
PCT/JP2011/062927
Other languages
French (fr)
Japanese (ja)
Inventor
圭介 淺利
本郷 仁志
Original Assignee
三洋電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三洋電機株式会社 filed Critical 三洋電機株式会社
Publication of WO2011155439A1 publication Critical patent/WO2011155439A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

A CPU (14p) specifies a plurality of partitioned areas upon a map image representing a bird's eye view state of a plane defining a space, and assigns a plurality of measurement areas which respectively correspond to the specified plurality of partitioned areas to a field of view image which has been output from a camera (12) which captures the plane. The CPU (14p) also classifies the measurement areas which have been assigned to the camera image into proper areas which match size conditions and non-proper areas which deviate from the size conditions. Degrees of congestion of partial fields of view belonging to the proper areas are detected on the basis of the field of view image which has been output from the camera (12), whereas degrees of congestion of partial fields of view belonging to the non-proper areas are detected on the basis of the degrees of congestion that have been detected for the proper areas. Loss of motion detection precision caused by a decrease in sizes of the measurement areas is suppressed.

Description

動き検出装置Motion detection device
 この発明は、動き検出装置に関し、特に平面を捉えるカメラから出力された被写界像(または被写体像)に基づいて平面に存在する1または2以上の物体の動きを検出する、動き検出装置に関する。 The present invention relates to a motion detection device, and more particularly to a motion detection device that detects the motion of one or more objects existing on a plane based on an object scene image (or subject image) output from a camera that captures the plane. .
 この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、カメラは、人物が歩行する平面を斜め方向から捉える。カメラから出力された画像は、複数の動き処理領域に分割される。このとき、前方の被写界(カメラによって捉えられた3次元空間の手前部分)に割り当てられる動き処理領域のサイズは、後方の被写界(カメラによって捉えられた3次元空間の遠方部分)に割り当てられる動き処理領域のサイズよりも大きくなる。画像の動きは、このような動き処理領域毎に検出され、かつ動き処理領域毎に設定された閾値と比較される。歩行する人物の混雑度は、こうして得られた比較結果に基づいて推定される。 An example of this type of device is disclosed in Patent Document 1. According to this background art, the camera captures a plane in which a person walks from an oblique direction. An image output from the camera is divided into a plurality of motion processing areas. At this time, the size of the motion processing area allocated to the front scene (the front part of the three-dimensional space captured by the camera) is set to the rear scene (the far part of the three-dimensional space captured by the camera). It becomes larger than the size of the motion processing area to be allocated. The motion of the image is detected for each motion processing area and compared with a threshold value set for each motion processing area. The degree of congestion of the walking person is estimated based on the comparison result thus obtained.
特開2009-110152号公報JP 2009-110152 A
 しかし、背景技術では、設定された動き処理領域のサイズによっては動き検出が困難になるおそれがある。 However, in the background art, it may be difficult to detect motion depending on the set size of the motion processing area.
 それゆえに、この発明の主たる目的は、動き検出精度の低下を抑制することができる、動き検出装置を提供することである。 Therefore, a main object of the present invention is to provide a motion detection device that can suppress a decrease in motion detection accuracy.
 この発明に従う動き検出装置(10:実施例で相当する参照符号。以下同じ)は、空間を定義する平面を鳥瞰した状態を表す参照画像上で複数の第1エリアを指定する指定手段(S21~S35)、指定手段によって指定された複数の第1エリアにそれぞれ対応する複数の第2エリアを平面を捉えるカメラから出力された被写界像に割り当てる割り当て手段(S37~S55)、割り当て手段によって割り当てられた複数の第2エリアをサイズ条件に合致する適性エリアとサイズ条件から外れる不適正エリアとに分類する分類手段(S57~S69, S75, S79)、分類手段によって分類された適正エリアに属する部分被写界(一部の3次元空間)の動き係数(混雑度)をカメラから出力された被写界像に基づいて検出する第1検出手段(S83~S93, S99~S113)、および分類手段によって分類された不適正エリアに属する部分被写界の動き係数を第1検出手段によって検出された動き係数に基づいて検出する第2検出手段(S95~S97, S115~S131)を備える。 The motion detection apparatus according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) designates a plurality of first areas on a reference image representing a bird's-eye view of a plane defining a space (S21 ~ S35), assigning means (S37 to S55) for assigning a plurality of second areas respectively corresponding to the plurality of first areas designated by the assigning means to the object scene image output from the camera capturing the plane, and assigning by the assigning means Classifying means (S57 to S69, S75, S79) for classifying a plurality of selected second areas into suitability areas that match the size condition and improper areas that do not meet the size condition, and parts that belong to the appropriate area classified by the sort means First detection means (S83 to S93, S99 to S113) and classification means for detecting a motion coefficient (degree of congestion) of the scene (partial three-dimensional space) based on the scene image output from the camera Classified by Parts belonging to a proper area comprising a second detection means for detecting on the basis of motion coefficients of the object scene in motion coefficients detected by the first detecting means (S95 ~ S97, S115 ~ S131).
 好ましくは、サイズ条件は注目する第2エリアに属する部分被写界を鳥瞰した状態を表す部分鳥瞰画像のサイズが基準を上回るという条件に相当する。 Preferably, the size condition corresponds to a condition that the size of the partial bird's-eye image representing the state of bird's-eye view of the partial scene belonging to the second area of interest exceeds the standard.
 好ましくは、分類手段による不適正エリアの抽出に対応して報知を出力する報知手段(S71)がさらに備えられる。 Preferably, a notification means (S71) for outputting a notification corresponding to the extraction of the inappropriate area by the classification means is further provided.
 好ましくは、第2検出手段は、分類手段によって分類された1または2以上の不適正エリアの各々を指定する指定手段(S117, S131)、指定手段によって指定された不適正エリアに接する適正エリアを分類手段によって分類された1または2以上の適正エリアの中から探索する探索手段(S121)、および探索手段によって発見された適正エリアについて第1検出手段によって検出された動き係数に基づいて指定手段によって指定された不適正エリアの動き係数を算出する算出手段(S125)を含む。 Preferably, the second detecting means designates each of one or more improper areas classified by the classifying means (S117, S131), and an appropriate area in contact with the improper area designated by the designation means. Search means (S121) for searching from one or more appropriate areas classified by the classification means, and the designation means based on the motion coefficient detected by the first detection means for the appropriate area found by the search means Calculation means (S125) for calculating the motion coefficient of the designated inappropriate area is included.
 好ましくは、空間に向けて出力を発生する複数の装置(D1~D6)の動作を第1検出手段および/または第2検出手段の検出結果に基づいて調整する調整手段(S133)がさらに備えられる。 Preferably, adjustment means (S133) for adjusting the operations of the plurality of devices (D1 to D6) that generate outputs toward the space based on the detection results of the first detection means and / or the second detection means is further provided. .
 さらに好ましくは、指定手段は、複数の装置の各々の位置を指定する指定操作を受け付ける受け付け手段(S25~S31)、および指定操作によって指定された位置を基準として複数の第1エリアを定義する定義手段(S33)を含む。 More preferably, the designating means accepts a designating operation (S25 to S31) for designating each position of the plurality of devices, and defines a plurality of first areas based on the position designated by the designating operation. Means (S33).
 複数の第1エリアは平面を鳥瞰した状態を表す参照画像上で指定される一方、複数の第2エリアは平面を捉えるカメラから出力された被写界像に割り当てられる。このため、カメラの位置および/または向きによっては、第2エリアの一部または全部が被写界像からはみ出し、被写界像に割り当てられた第2エリアのサイズが予想を下回るおそれがある。 The plurality of first areas are designated on a reference image representing a state in which the plane is viewed from the bird's eye, while the plurality of second areas are assigned to the object scene image output from the camera capturing the plane. For this reason, depending on the position and / or orientation of the camera, part or all of the second area may protrude from the object scene image, and the size of the second area allocated to the object scene image may be less than expected.
 この発明では、被写界像に割り当てられた複数の第2エリアがサイズ条件を満足する適正エリアとサイズ条件から外れる不適正エリアに分類され、適正エリアに属する部分被写界の動き係数はカメラから出力された被写界像に基づいて検出される一方、不適正エリアに属する部分被写界の動き係数は適正エリアについて検出された動き係数に基づいて検出される。これによって、被写界像に割り当てられた第2エリアのサイズの減少に起因する動き検出精度の低下が抑制される。 In the present invention, the plurality of second areas assigned to the object scene image are classified into an appropriate area that satisfies the size condition and an inappropriate area that deviates from the size condition, and the motion coefficient of the partial object scene belonging to the appropriate area is the camera. On the other hand, the motion coefficient of the partial scene belonging to the inappropriate area is detected based on the motion coefficient detected for the appropriate area. As a result, a decrease in motion detection accuracy due to a decrease in the size of the second area allocated to the object scene image is suppressed.
 この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
この発明の一実施例の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of one Example of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 図2実施例に適用されるカメラの設置状態の一例を示す図解図である。It is an illustration figure which shows an example of the installation state of the camera applied to the FIG. 2 Example. 図2実施例のモニタに表示されるカメラ画像の一例を示す図解図である。It is an illustration figure which shows an example of the camera image displayed on the monitor of FIG. 2 Example. 図2実施例のモニタに表示されるマップ画像の一例を示す図解図である。It is an illustration figure which shows an example of the map image displayed on the monitor of FIG. 2 Example. 図2実施例に適用されるエリアレジスタの構成の一例を示す図解図である。It is an illustration figure which shows an example of a structure of the area register applied to the FIG. 2 Example. 図2実施例に適用される退避レジスタの構成の一例を示す図解図である。FIG. 5 is an illustrative view showing one example of a configuration of a save register applied to the embodiment in FIG. 2; (A)はマップ画像上での分割エリアの割り当て状態の一例を示す図解図であり、(B)はカメラ画像上での測定エリアの割り当て状態の一例を示す図解図である。(A) is an illustration figure which shows an example of the allocation state of the divided area on a map image, (B) is an illustration figure which shows an example of the allocation state of the measurement area on a camera image. 混雑度測定動作の一部を示す図解図である。It is an illustration figure which shows a part of congestion degree measurement operation | movement. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example.
 以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
 図1を参照して、この実施例の動き検出装置は、基本的に次のように構成される。指定手段1は、空間を定義する平面を鳥瞰した状態を表す参照画像上で複数の第1エリアを指定する。割り当て手段2は、指定手段1によって指定された複数の第1エリアにそれぞれ対応する複数の第2エリアを平面を捉えるカメラ6から出力された被写界像に割り当てる
。分類手段3は、割り当て手段2によって割り当てられた複数の第2エリアをサイズ条件に合致する適性エリアとサイズ条件から外れる不適正エリアとに分類する。第1検出手段4は、分類手段3によって分類された適正エリアに属する部分被写界の動き係数をカメラ6から出力された被写界像に基づいて検出する。第2検出手段5は、分類手段3によって分類された不適正エリアに属する部分被写界の動き係数を第1検出手段4によって検出された動き係数に基づいて検出する。
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]
Referring to FIG. 1, the motion detection apparatus of this embodiment is basically configured as follows. The designation unit 1 designates a plurality of first areas on a reference image that represents a bird's eye view of a plane that defines a space. The assigning unit 2 assigns a plurality of second areas respectively corresponding to the plurality of first areas specified by the specifying unit 1 to the object scene image output from the camera 6 capturing a plane. The classifying unit 3 classifies the plurality of second areas assigned by the assigning unit 2 into suitability areas that match the size condition and improper areas that fall outside the size condition. The first detection means 4 detects the motion coefficient of the partial scene belonging to the appropriate area classified by the classification means 3 based on the scene image output from the camera 6. The second detection means 5 detects the motion coefficient of the partial scene belonging to the inappropriate area classified by the classification means 3 based on the motion coefficient detected by the first detection means 4.
 複数の第1エリアは平面を鳥瞰した状態を表す参照画像上で指定される一方、複数の第2エリアは平面を捉えるカメラ6から出力された被写界像に割り当てられる。このため、カメラ6の位置および/または向きによっては、第2エリアの一部または全部が被写界像からはみ出し、被写界像に割り当てられた第2エリアのサイズが予想を下回るおそれがある。 The plurality of first areas are designated on a reference image representing a state in which the plane is viewed from the bird's eye, while the plurality of second areas are assigned to the object scene image output from the camera 6 capturing the plane. For this reason, depending on the position and / or orientation of the camera 6, part or all of the second area may protrude from the object scene image, and the size of the second area allocated to the object scene image may be less than expected. .
 この実施例では、被写界像に割り当てられた複数の第2エリアがサイズ条件を満足する適正エリアとサイズ条件から外れる不適正エリアに分類され、適正エリアに属する部分被写界の動き係数はカメラ6から出力された被写界像に基づいて検出される一方、不適正エリアに属する部分被写界の動き係数は適正エリアについて検出された動き係数に基づいて検出される。これによって、被写界像に割り当てられた第2エリアのサイズの減少に起因する動き検出精度の低下が抑制される。
[実施例]
 図2を参照して、この実施例の混雑度測定装置10は、撮像面で捉えられた被写界(3次元空間)を表す画像データを繰り返し出力するカメラ12を含む。カメラ12から出力された画像データは、画像処理回路14によって取り込まれ、CPU14pによってカメラ画像表示処理を施される。この結果、被写界を表す画像つまりカメラ画像がモニタ16に表示される。
In this embodiment, the plurality of second areas allocated to the object scene image are classified into appropriate areas that satisfy the size condition and inappropriate areas that deviate from the size condition, and the motion coefficient of the partial object scene belonging to the appropriate area is While detected based on the object scene image output from the camera 6, the motion coefficient of the partial object scene belonging to the inappropriate area is detected based on the motion coefficient detected for the appropriate area. As a result, a decrease in motion detection accuracy due to a decrease in the size of the second area allocated to the object scene image is suppressed.
[Example]
Referring to FIG. 2, the congestion degree measuring apparatus 10 of this embodiment includes a camera 12 that repeatedly outputs image data representing an object scene (three-dimensional space) captured on an imaging surface. The image data output from the camera 12 is captured by the image processing circuit 14 and subjected to camera image display processing by the CPU 14p. As a result, an image representing the object scene, that is, a camera image is displayed on the monitor 16.
 図3を参照して、カメラ12は、平面FS1を有する部屋の壁面上部に設置され、平面FS1を斜め上方から捉える。したがって、カメラ画像は、図4に示す要領でモニタ画面に表示される。図3および図4に示すように、平面FS1は互いに直交するX軸およびY軸によって定義され、カメラ画像は互いに直交するU軸およびV軸に沿って再現される。 Referring to FIG. 3, the camera 12 is installed on the upper surface of the wall of the room having the plane FS1, and captures the plane FS1 obliquely from above. Therefore, the camera image is displayed on the monitor screen as shown in FIG. As shown in FIGS. 3 and 4, the plane FS1 is defined by the X axis and the Y axis orthogonal to each other, and the camera image is reproduced along the U axis and the V axis orthogonal to each other.
 部屋の天井には、空調装置D_1~D_6が既定の距離を隔てて設置される。空調装置D_1~D_6の各々は、X軸に沿う2方向およびY軸に沿う2方向の合計4方向にそれぞれ対応する4つの吹き出し口を有し、指定温度を有する空気を指定の風量で出力する。
部屋の温度は、こうして出力された空気によって調整される。
Air conditioners D_1 to D_6 are installed at a predetermined distance on the ceiling of the room. Each of the air conditioners D_1 to D_6 has four outlets respectively corresponding to a total of four directions including two directions along the X axis and two directions along the Y axis, and outputs air having a specified temperature with a specified air volume. .
The room temperature is adjusted by the air thus output.
 入力装置18の操作によって測定エリア設定モードが選択されると、CPU14pによって次の処理が実行される。 When the measurement area setting mode is selected by operating the input device 18, the following processing is executed by the CPU 14p.
 まず、図5に示すマップ画像がモニタ16に表示される。マップ画像は、平面FS1を鳥瞰した状態を模式的に表す画像に相当する。マップ画像にはまた、空調装置D_1~D_6をそれぞれ表すマークM_1~M_6が、空調装置D_1~D_6の位置に対応して表示される。 First, the map image shown in FIG. A map image is corresponded to the image which represents the state which looked at plane FS1 bird's-eye view. In the map image, marks M_1 to M_6 respectively representing air conditioners D_1 to D_6 are displayed corresponding to the positions of the air conditioners D_1 to D_6.
 マップ画像の表示が完了すると、変数Kが“1”に設定される。入力装置18に設けられたマウスポインタによってマークM_Kがクリックされると、クリックされた位置を示す座標つまりクリック座標が算出される。算出されたクリック座標は変数Kに対応してエリアレジスタ14r1に記述され、変数Kはその後にインクリメントされる。クリック操作はマークM_1~M_6に対応して合計6回受け付けられ、これによってマークM_1~M_6にそれぞれ対応する6つのクリック座標がエリアレジスタ14r1に設定される。 When the display of the map image is completed, the variable K is set to “1”. When the mark M_K is clicked by the mouse pointer provided in the input device 18, coordinates indicating the clicked position, that is, click coordinates are calculated. The calculated click coordinates are described in the area register 14r1 corresponding to the variable K, and the variable K is incremented thereafter. The click operation is accepted a total of six times corresponding to the marks M_1 to M_6, and thereby six click coordinates respectively corresponding to the marks M_1 to M_6 are set in the area register 14r1.
 マップ画像は、こうして設定された6つのクリック座標を基準として、図8(A)に示す要領で分割される。マップ画像には、分割位置を定義する太線および細線が描画される。太線はマークM_1~M_6を囲むように描かれ、細線はマークM_1~M_6の各々から放射状に延びるように描かれる。 The map image is divided in the manner shown in FIG. 8A with the six click coordinates thus set as a reference. A thick line and a thin line that define a division position are drawn on the map image. The thick lines are drawn so as to surround the marks M_1 to M_6, and the thin lines are drawn so as to extend radially from each of the marks M_1 to M_6.
 この結果、分割エリアMP_1_1~MP_1_4がマークM_1の周辺に割り当てられ、分割エリアMP_2_1~MP_2_4がマークM_2の周辺に割り当てられ、分割エリアMP_3_1~MP_3_4がマークM_3の周辺に割り当てられる。同様に、分割エリアMP_4_1~MP_4_4がマークM_4の周辺に割り当てられ、分割エリアMP_5_1~MP_5_4がマークM_5の周辺に割り当てられ、分割エリアMP_6_1~MP_6_4がマークM_6の周辺に割り当てられる。 As a result, the divided areas MP_1_1 to MP_1_4 are allocated around the mark M_1, the divided areas MP_2_1 to MP_2_4 are allocated around the mark M_2, and the divided areas MP_3_1 to MP_3_4 are allocated around the mark M_3. Similarly, the divided areas MP_4_1 to MP_4_4 are allocated around the mark M_4, the divided areas MP_5_1 to MP_5_4 are allocated around the mark M_5, and the divided areas MP_6_1 to MP_6_4 are allocated around the mark M_6.
 エリアレジスタ14r1には、こうして割り当てられた分割エリアMP_K_L(K:1~6,L:1~4)を定義する複数のXY座標と、分割エリアMP_K_Lの面積に対応する数値を示す正規化係数α_K_Lが記述される。正規化係数α_K_Lは、分割エリアMP_K_Lの面積を単位面積で割り算することによって求められる。 In the area register 14r1, a plurality of XY coordinates defining the divided area MP_K_L (K: 1 to 6, L: 1 to 4) allocated in this way, and a normalization coefficient α_K_L indicating a numerical value corresponding to the area of the divided area MP_K_L Is described. The normalization coefficient α_K_L is obtained by dividing the area of the divided area MP_K_L by the unit area.
 続いて、分割エリアMP_K_Lを定義する複数のXY座標の各々が、数1に従ってUV座標に変換される。 Subsequently, each of a plurality of XY coordinates that define the divided area MP_K_L is converted into UV coordinates according to Equation 1.
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000001
 数1に示す校正パラメータP11~P33は、平面FS1を定義するXY座標系とカメラ画像を定義するUV座標系との間で平面射影変換を行うための行列に相当する。したがって、所望のXY座標を数1に適用することで、カメラ画像上の対応するUV座標が算出される。こうして変換された複数のUV座標は変換元の複数のXY座標に対応してエリアレジスタ14r1に記述され、分割エリアMP_K_Lに対応する測定エリアDT_K_Lは図8(B)に示す要領でカメラ画像上に定義される。 The calibration parameters P11 to P33 shown in Equation 1 correspond to a matrix for performing planar projective transformation between the XY coordinate system that defines the plane FS1 and the UV coordinate system that defines the camera image. Therefore, by applying the desired XY coordinates to Equation 1, the corresponding UV coordinates on the camera image are calculated. The plurality of UV coordinates thus converted are described in the area register 14r1 corresponding to the plurality of XY coordinates of the conversion source, and the measurement area DT_K_L corresponding to the divided area MP_K_L is displayed on the camera image as shown in FIG. Defined.
 測定エリアDT_K_Lの定義が完了すると、定義された測定エリアDT_K_Lに属するカメラ画像が鳥瞰画像に変換され、変換された鳥瞰画像のサイズが“SZ_K_L”として検出される。鳥瞰画像は既定の高さに配置された仮想カメラから平面FS1を捉えた状態を表す画像に相当し、サイズSZ_K_Lは仮想カメラの高さで正規化された数値を示す。こうして検出されたサイズSZ_K_Lは、変数KおよびLに対応してエリアレジスタ14r1に記述される。 When the definition of the measurement area DT_K_L is completed, the camera image belonging to the defined measurement area DT_K_L is converted into a bird's-eye image, and the size of the converted bird's-eye image is detected as “SZ_K_L”. The bird's-eye view image corresponds to an image representing a state where the plane FS1 is captured from the virtual camera arranged at a predetermined height, and the size SZ_K_L indicates a numerical value normalized by the height of the virtual camera. The size SZ_K_L detected in this way is described in the area register 14r1 corresponding to the variables K and L.
 測定エリアDT_K_Lの一部がカメラ画像からはみ出した場合、サイズSZ_K_Lは、測定エリアDT_K_Lの他の一部(カメラ画像に収まっている測定エリア)に属する一部のカメラ画像に基づいて生成された鳥瞰画像のサイズを示す。図8(B)においては、たとえば測定エリアDT_1_1の一部がカメラ画像からはみ出す。この場合、サイズSZ_1_1は、図8(B)に斜線で示すエリアのカメラ画像に基づく鳥瞰画像のサイズを示す。 When a part of the measurement area DT_K_L protrudes from the camera image, the size SZ_K_L has a bird's-eye view generated based on a part of the camera images belonging to another part of the measurement area DT_K_L (measurement area within the camera image). Indicates the size of the image. In FIG. 8B, for example, a part of the measurement area DT_1_1 protrudes from the camera image. In this case, the size SZ_1_1 indicates the size of the bird's-eye view image based on the camera image in the area indicated by hatching in FIG.
 こうして定義された測定エリアDT_K_Lは、サイズ条件に合致する適正エリアとサイズ条件から外れる不適正エリアとに分類される。ここで、サイズ条件とは、サイズSZ_K_Lが基準値REFを上回るという条件に相当する。したがって、サイズSZ_K_Lが基準値REFを上回る測定エリアDT_K_Lは適正エリアに分類され、サイズSZ_K_Lが基準値REF以下の測定エリアDT_K_Lは不適正エリアに分類される。 The measurement area DT_K_L defined in this way is classified into an appropriate area that matches the size condition and an inappropriate area that deviates from the size condition. Here, the size condition corresponds to a condition that the size SZ_K_L exceeds the reference value REF. Therefore, the measurement area DT_K_L in which the size SZ_K_L exceeds the reference value REF is classified as an appropriate area, and the measurement area DT_K_L in which the size SZ_K_L is equal to or smaller than the reference value REF is classified as an inappropriate area.
 不適正エリアが検出されると、エラーが報知される。エラーは、不適正エリアに別の色を付すなどのように不適正エリアを特定した状態で報知される。操作者は、このような報知によって不適正エリアの存在を認識する。 When an inappropriate area is detected, an error is notified. The error is notified in a state where the inappropriate area is specified, such as adding another color to the inappropriate area. The operator recognizes the presence of the inappropriate area by such notification.
 エラー報知に対して操作者が入力装置18上でキャンセル操作を行うと、エリアレジスタ14r1がクリアされる。操作者は、カメラ12および/または空調機D1~D6の配置を変更した上で、測定エリア設定モードの下での操作を再度実行する。一方、エラー報知に対して操作者が入力装置18上で登録操作を行うと、測定エリアDT_K_Lが不適正エリアであることを示す拡張子が変数KおよびLに対応してエリアレジスタ14r1に記述される。こうして測定エリアDT_K_Lに設定された拡張子は、混雑度測定モードにおいて参照される。 When the operator performs a cancel operation on the input device 18 in response to the error notification, the area register 14r1 is cleared. The operator changes the arrangement of the camera 12 and / or the air conditioners D1 to D6, and then performs the operation under the measurement area setting mode again. On the other hand, when the operator performs a registration operation on the input device 18 in response to the error notification, an extension indicating that the measurement area DT_K_L is an inappropriate area is described in the area register 14r1 corresponding to the variables K and L. The The extension set in the measurement area DT_K_L is referred to in the congestion degree measurement mode.
 入力装置18の操作によって混雑度測定モードが選択されると、測定周期が到来する毎に次の処理がCPU14pによって実行される。 When the congestion degree measurement mode is selected by operating the input device 18, the following processing is executed by the CPU 14p every time the measurement period arrives.
 まず、動きを示す画像つまり動き画像がカメラ画像上で検出される。続いて、フラグFLGが“0”に設定され、測定エリアDT_K_Lに拡張子が設定されているか否か(つまり、測定エリアDT_K_Lが適正エリアであるか否か)が判別される。 First, an image showing motion, that is, a motion image is detected on the camera image. Subsequently, the flag FLG is set to “0”, and it is determined whether or not an extension is set in the measurement area DT_K_L (that is, whether or not the measurement area DT_K_L is an appropriate area).
 拡張子が設定されていなければ、測定エリアDT_K_Lは適正エリアであるとみなされ、測定エリアDT_K_Lに属するカメラ画像の画素数が検出される。検出された画素数は、変数P1_K_Lに設定される。また、カメラ画像上で検出された動き画像から測定エリアDT_K_Lに属する動き画像が区分され、区分された動き画像の画素数が変数P2_K_Lに設定される。 If no extension is set, the measurement area DT_K_L is regarded as an appropriate area, and the number of pixels of the camera image belonging to the measurement area DT_K_L is detected. The number of detected pixels is set in a variable P1_K_L. In addition, a motion image belonging to the measurement area DT_K_L is segmented from the motion image detected on the camera image, and the number of pixels of the segmented motion image is set to the variable P2_K_L.
 測定エリアDT_K_Lの混雑の程度を示す混雑度CR_K_Lは、こうして設定された変数P1_K_LおよびP2_K_Lとレジスタ14rに記述された正規化係数α_K_Lとに基づいて算出される。具体的には、混雑度CR_K_Lは、変数P2_K_Lを変数P1_K_Lで割り算し、これによって得られた割り算値に正規化係数α_Kを掛け算することで求められる。 The congestion degree CR_K_L indicating the degree of congestion of the measurement area DT_K_L is calculated based on the variables P1_K_L and P2_K_L set in this way and the normalization coefficient α_K_L described in the register 14r. Specifically, the degree of congestion CR_K_L is obtained by dividing the variable P2_K_L by the variable P1_K_L and multiplying the division value obtained thereby by the normalization coefficient α_K.
 一方、測定エリアDT_K_Lに拡張子が設定されていれば、測定エリアDT_K_Lは不適正エリアとみなされ、変数KおよびLの値が図7に示す退避レジスタ14r2の共通のカラムに記述される。また、変数KおよびLの値が退避されたことを表明するべく、フラグFLGが“1”に更新される。 On the other hand, if an extension is set in the measurement area DT_K_L, the measurement area DT_K_L is regarded as an inappropriate area, and the values of the variables K and L are described in the common column of the save register 14r2 shown in FIG. Further, the flag FLG is updated to “1” in order to assert that the values of the variables K and L have been saved.
 不適正エリアについては、以下の要領で混雑度が算出される。まず変数Nが“1”~“Nmax”の各々に設定され(Nmax:退避レジスタ14r2において数値が記述されたカラムの総数)、退避レジスタ14r2のN番目のカラムに記述された2つの数値が変数KおよびLにそれぞれ設定される。これによって、1または2以上の不適正エリアが順に指定される。 不 For inappropriate areas, the congestion level is calculated as follows. First, the variable N is set to each of “1” to “Nmax” (Nmax: total number of columns in which numerical values are described in the save register 14r2), and the two numerical values described in the Nth column of the save register 14r2 are variables. Set to K and L, respectively. As a result, one or more improper areas are designated in order.
 続いて、指定された不適正エリアに隣接する1または2以上の適正エリアが指定された不適正エリアの周辺から探索される。指定された不適正エリアに隣接する1または2以上の適正エリアが発見されると、発見された1または2以上の適正エリアの混雑度の平均値が指定された不適正エリアの混雑度として設定される。これに対して、指定された不適正エリアに隣接する適正エリアが発見されなければ、既定値が指定された不適正エリアの混雑度として設定される。 Subsequently, one or more appropriate areas adjacent to the designated inappropriate area are searched from the periphery of the designated inappropriate area. When one or more appropriate areas adjacent to the specified inappropriate area are found, the average value of the congestion levels of the detected one or more appropriate areas is set as the congestion level of the specified inappropriate area. Is done. On the other hand, if a proper area adjacent to the designated inappropriate area is not found, a default value is set as the congestion degree of the designated inappropriate area.
 空調装置D1~D6の出力は、こうして得られた混雑度CR_1_1~CR_6_4に基づいて制御される。具体的には、混雑度が大きい測定エリアに対応する空調装置の出力が強められ、混雑度が小さい測定エリアに対応する空調装置の出力が弱められる。 The outputs of the air conditioners D1 to D6 are controlled based on the congestion levels CR_1_1 to CR_6_4 thus obtained. Specifically, the output of the air conditioner corresponding to the measurement area with a high degree of congestion is strengthened, and the output of the air conditioner corresponding to the measurement area with a low degree of congestion is weakened.
 図9を参照して、測定エリアDT_1_2およびDT_1_3が適正エリアである一方、測定エリアDT_1_1およびDT_1_4が不適正エリアである場合において、人物H1およびH2が測定エリアDT_1_2を移動し、人物H3が測定エリアDT_1_3を移動することを想定する。 Referring to FIG. 9, when measurement areas DT_1_2 and DT_1_3 are appropriate areas, but measurement areas DT_1_1 and DT_1_4 are inappropriate areas, persons H1 and H2 move measurement area DT_1_2, and person H3 moves to measurement area. Assume that DT_1_3 is moved.
 すると、測定エリアDT_1_2の混雑度は測定エリア_1_2に属する画像の画素数と人物H1およびH2を表す動き画像の画素数と正規化係数α_1_2とに基づいて算出され、測定エリアDT_1_3の混雑度は測定エリアDT_1_3に属する画像の画素数と人物H3を表す動き画像の画素数と正規化係数α_1_3とに基づいて算出される。これに対して、測定エリアDT_1_1の混雑度は測定エリアDT_1_2の混雑度に基づいて算出され、測定エリアDT_1_4の混雑度は測定エリアDT_1_3の混雑度に基づいて算出される。 Then, the degree of congestion of the measurement area DT_1_2 is calculated based on the number of pixels of the image belonging to the measurement area_1_2, the number of pixels of the motion image representing the persons H1 and H2, and the normalization coefficient α_1_2, and the degree of congestion of the measurement area DT_1_3 is measured. It is calculated based on the number of pixels of the image belonging to the area DT_1_3, the number of pixels of the motion image representing the person H3, and the normalization coefficient α_1_3. On the other hand, the congestion degree of the measurement area DT_1_1 is calculated based on the congestion degree of the measurement area DT_1_2, and the congestion degree of the measurement area DT_1_4 is calculated based on the congestion degree of the measurement area DT_1_3.
 CPU14pは、図10に示す撮像タスク,図11~図14に示す測定エリア設定タスク,および図15~図17に示す混雑度測定タスクを含む複数のタスクを実行する。なお、これらのタスクに対応する制御プログラムは、記録媒体20に保存される。 The CPU 14p executes a plurality of tasks including an imaging task shown in FIG. 10, a measurement area setting task shown in FIGS. 11 to 14, and a congestion degree measuring task shown in FIGS. Note that control programs corresponding to these tasks are stored in the recording medium 20.
 図10を参照して、ステップS1ではカメラ画像表示処理を実行する。この結果、カメラ画像がモニタ16に表示される。ステップS3では現時点の動作モードが測定エリア設定モードであるか否かを判別し、ステップS7では現時点の動作モードが混雑度測定モードであるか否かを判別する。 Referring to FIG. 10, camera image display processing is executed in step S1. As a result, a camera image is displayed on the monitor 16. In step S3, it is determined whether or not the current operation mode is the measurement area setting mode, and in step S7, it is determined whether or not the current operation mode is the congestion degree measurement mode.
 ステップS3でYESであれば、ステップS5で測定エリア設定タスクを起動し、その後にステップS15に進む。ステップS7でYESであれば、測定エリアが設定済みであるか否かをステップS9で判別する。判別結果がYESであればステップS11で混雑度測定タスクを起動してからステップS15に進み、判別結果がNOであればそのままステップS15に進む。ステップS3およびS7のいずれもNOであれば、ステップS13で他の処理を実行し、その後にステップS15に進む。 If “YES” in the step S3, a measurement area setting task is started in a step S5, and thereafter, the process proceeds to a step S15. If “YES” in the step S7, it is determined whether or not the measurement area has been set in a step S9. If the determination result is YES, the congestion degree measurement task is started in step S11 and then the process proceeds to step S15. If the determination result is NO, the process directly proceeds to step S15. If both step S3 and S7 are NO, another process is executed in step S13, and then the process proceeds to step S15.
 ステップS15ではモード変更操作が行われたか否かを繰り返し判別する。判別結果がNOからYESに更新されると、起動中のタスクをステップS17で終了し、その後にステップS3に戻る。 In step S15, it is repeatedly determined whether or not a mode change operation has been performed. When the determination result is updated from NO to YES, the activated task is terminated in step S17, and thereafter, the process returns to step S3.
 図11を参照して、ステップS21ではマップ画像をモニタ16に表示し、ステップS23では変数Kを“1”に設定する。ステップS25ではエリア指定のためのクリック操作が行われたか否かを判別し、判別結果がNOからYESに更新されるとステップS27でクリック座標を算出する。算出された座標は、変数Kに対応してエリアレジスタ14r1に記述される。ステップS29では変数Kが“6”に達したか否かを判別し、判別結果がNOであればステップS31で変数KをインクリメントしてからステップS25に戻る一方、判別結果がYESであればステップS33に進む。 Referring to FIG. 11, the map image is displayed on monitor 16 in step S21, and variable K is set to “1” in step S23. In step S25, it is determined whether or not a click operation for designating an area has been performed. If the determination result is updated from NO to YES, click coordinates are calculated in step S27. The calculated coordinates are described in the area register 14r1 corresponding to the variable K. In step S29, it is determined whether or not the variable K has reached “6”. If the determination result is NO, the variable K is incremented in step S31 and then the process returns to step S25. Proceed to S33.
 ステップS33では、クリック座標を参照してマップ画像を分割する。この結果、合計24個の分割エリアMP_1_1~MP_6_4がマップ画像上に割り当てられる。ステップS35では分割画像MP_1_1~MP_6_4の位置を示す太線および細線をマップ画像上に描画する。 In step S33, the map image is divided with reference to the click coordinates. As a result, a total of 24 divided areas MP_1_1 to MP_6_4 are allocated on the map image. In step S35, bold and thin lines indicating the positions of the divided images MP_1_1 to MP_6_4 are drawn on the map image.
 ステップS37では変数Kを“1”に設定し、ステップS39では変数Lを“1”に設定し、そしてステップS41では分割エリアMP_K_Lを定義する複数のXY座標を算出する。算出されたXY座標は、変数KおよびLに対応してエリアレジスタ14r1に記述される。ステップS43では、分割エリアMP_K_Lの面積を正規化し、正規化係数α_K_Lを算出する。算出された正規化係数α_K_Lもまた、変数KおよびLに対応してエリアレジスタ14r1に記述される。 In step S37, the variable K is set to “1”, in step S39, the variable L is set to “1”, and in step S41, a plurality of XY coordinates defining the divided area MP_K_L are calculated. The calculated XY coordinates are described in the area register 14r1 corresponding to the variables K and L. In step S43, the area of the divided area MP_K_L is normalized, and a normalization coefficient α_K_L is calculated. The calculated normalization coefficient α_K_L is also described in the area register 14r1 corresponding to the variables K and L.
 ステップS45では、分割エリアMP_K_Lを定義する複数のXY座標の各々を数1に従ってUV座標に変換する。変換されたUV座標は変数KおよびLに対応してエリアレジスタ14r1に記述され、これによって分割エリアMP_K_Lに対応する測定エリアDT_K_Lがカメラ画像に割り当てられる。なお、カメラ12の位置および/または向きによっては、測定エリアDT_K_Lの少なくとも一部がカメラ画像からはみ出すおそれがある。 In step S45, each of the plurality of XY coordinates defining the divided area MP_K_L is converted into UV coordinates according to the equation (1). The converted UV coordinates are described in the area register 14r1 corresponding to the variables K and L, whereby the measurement area DT_K_L corresponding to the divided area MP_K_L is assigned to the camera image. Depending on the position and / or orientation of the camera 12, at least part of the measurement area DT_K_L may protrude from the camera image.
 ステップS47では、こうして割り当てられた測定エリアDT_K_Lに属する一部のカメラ画像を鳥瞰画像に変換し、変換された鳥瞰画像のサイズを“SZ_K_L”として検出する。検出されたサイズSZ_K_Lは、変数KおよびLに対応してエリアレジスタ14r1に記述される。 In step S47, a part of the camera images belonging to the measurement area DT_K_L allocated in this way is converted into a bird's-eye view image, and the size of the converted bird's-eye view image is detected as “SZ_K_L”. The detected size SZ_K_L is described in the area register 14r1 corresponding to the variables K and L.
 ステップS49では変数Lが“4”に達したか否かを判別し、ステップS53では変数Kが“6”に達したか否かを判別する。ステップS49の判別結果がNOであれば、ステップS51で変数LをインクリメントしてからステップS41に戻る。ステップS49の判別結果がYESでかつステップS53の判別結果がNOであれば、ステップS55で変数KをインクリメントしてからステップS39に戻る。ステップS49の判別結果およびステップS53の判別結果のいずれもがYESであれば、ステップS57に進む。 In step S49, it is determined whether or not the variable L has reached “4”, and in step S53, it is determined whether or not the variable K has reached “6”. If the decision result in the step S49 is NO, the variable L is incremented in a step S51, and then the process returns to the step S41. If the determination result in step S49 is YES and the determination result in step S53 is NO, the variable K is incremented in step S55, and the process returns to step S39. If both the determination result in step S49 and the determination result in step S53 are YES, the process proceeds to step S57.
 ステップS57では変数Kを“1”に設定し、ステップS59では変数Lを“1”に設定し、そしてステップS61ではサイズSZ_K_Lが基準値REFを上回るか否かを判別する。判別結果がNOであればステップS71に進み、判別結果がYESであればステップS63に進む。この結果、サイズSZ_K_Lが基準値REFを上回る測定エリアDT_K_Lが適正エリアに分類され、サイズSZ_K_Lが基準値REF以下の測定エリアDT_K_Lが不適正エリアに分類される。 In step S57, the variable K is set to “1”, in step S59, the variable L is set to “1”, and in step S61, it is determined whether or not the size SZ_K_L exceeds the reference value REF. If the determination result is NO, the process proceeds to step S71, and if the determination result is YES, the process proceeds to step S63. As a result, the measurement area DT_K_L whose size SZ_K_L exceeds the reference value REF is classified as an appropriate area, and the measurement area DT_K_L whose size SZ_K_L is equal to or smaller than the reference value REF is classified as an inappropriate area.
 ステップS63では変数Lが“4”に達したか否かを判別し、ステップS67では変数Kが“6”に達したか否かを判別する。ステップS63の判別結果がNOであれば、ステップS65で変数LをインクリメントしてからステップS61に戻る。ステップS63の判別結果がYESでかつステップS67の判別結果がNOであれば、ステップS69で変数KをインクリメントしてからステップS59に戻る。ステップS63の判別結果およびステップS67の判別結果のいずれもがYESであれば、処理を終了する。 In step S63, it is determined whether or not the variable L has reached “4”. In step S67, it is determined whether or not the variable K has reached “6”. If the decision result in the step S63 is NO, the variable L is incremented in a step S65, and then the process returns to the step S61. If the determination result in step S63 is YES and the determination result in step S67 is NO, the variable K is incremented in step S69, and the process returns to step S59. If both the determination result in step S63 and the determination result in step S67 are YES, the process ends.
 ステップS71では、測定エリアDT_K_Lを特定した状態でエラーを報知する。ステップS73ではキャンセル操作が行われたか否かを判別し、ステップS75では登録操作が行われたか否かを判別する。ステップS73の判別結果がYESであれば、ステップS77でエリアレジスタ14r1をクリアし、その後に処理を終了する。ステップS75の判別結果がYESであればステップS79に進み、変数KおよびLに対応して拡張子をエリアレジスタ14r1に記述する。拡張子の記述が完了すると、ステップS63に戻る。 In step S71, an error is notified in a state where the measurement area DT_K_L is specified. In step S73, it is determined whether a cancel operation has been performed. In step S75, it is determined whether a registration operation has been performed. If the decision result in the step S73 is YES, the area register 14r1 is cleared in a step S77, and then the process is ended. If the decision result in the step S75 is YES, the process advances to a step S79 to describe the extension in the area register 14r1 corresponding to the variables K and L. When the description of the extension is completed, the process returns to step S63.
 図15を参照して、ステップS81では測定周期が到来したか否かを判別する。判別結果がNOからYESに更新されるとステップS83に進み、動きを示す画像つまり動き画像をカメラ画像上で検出する。ステップS85ではフラグFLGを“0”に設定し、ステップS87では変数Kを“1”に設定し、そしてステップS89では変数Lを“1”に設定する。ステップS91では測定エリアDT_K_Lに拡張子が割り当てられているか否かをエリアレジスタ14r1を参照して判別し、判別結果がNOであればステップS93に進む一方、判別結果がYESであればステップS95に進む。 Referring to FIG. 15, it is determined in step S81 whether or not a measurement cycle has arrived. When the determination result is updated from NO to YES, the process proceeds to step S83, and an image showing motion, that is, a motion image is detected on the camera image. In step S85, the flag FLG is set to “0”, in step S87, the variable K is set to “1”, and in step S89, the variable L is set to “1”. In step S91, it is determined whether or not an extension is assigned to the measurement area DT_K_L with reference to the area register 14r1. If the determination result is NO, the process proceeds to step S93. If the determination result is YES, the process proceeds to step S95. move on.
 ステップS95では変数KおよびLの現在の値を退避レジスタ14r2に設定し、ステップS97ではフラグFLGを“1”に設定する。ステップS97の処理が完了すると、ステップS107に進む。 In step S95, the current values of the variables K and L are set in the save register 14r2, and in step S97, the flag FLG is set to “1”. When the process of step S97 is completed, the process proceeds to step S107.
 ステップS93では、測定エリアDT_K_Lに属するカメラ画像の画素数を検出し、検出された画素数を変数P1_K_Lに設定する。ステップS99ではステップS83で検出された動き画像から測定エリアDT_K_Lに属する動き画像を区分し、ステップS101では区分された動き画像の画素数を変数P2_K_Lに設定する。 In step S93, the number of pixels of the camera image belonging to the measurement area DT_K_L is detected, and the detected number of pixels is set in the variable P1_K_L. In step S99, a motion image belonging to the measurement area DT_K_L is segmented from the motion image detected in step S83, and in step S101, the number of pixels of the segmented motion image is set to a variable P2_K_L.
 ステップS103では、測定エリアDT_K_Lに属する動き画像が測定エリアDT_K_Lに占める割合を、ステップS93およびS101でそれぞれ設定された変数P1_K_LおよびP2_K_Lに基づいて算出する。割合(=RT_K_L)は、変数P2_K_Lを変数P1_K_Lで割り算した値に相当する。ステップS105では、エリアレジスタ14r1に記述された正規化係数α_K_LをステップS103で算出された割合RT_K_Lに掛け算して、測定エリアDT_K_Lの混雑度を“CR_K_L”として算出する。 In step S103, the ratio of the motion image belonging to the measurement area DT_K_L to the measurement area DT_K_L is calculated based on the variables P1_K_L and P2_K_L set in steps S93 and S101, respectively. The ratio (= RT_K_L) corresponds to a value obtained by dividing the variable P2_K_L by the variable P1_K_L. In step S105, the normalization coefficient α_K_L described in the area register 14r1 is multiplied by the ratio RT_K_L calculated in step S103 to calculate the congestion degree of the measurement area DT_K_L as “CR_K_L”.
 ステップS107では変数Lが“4”に達したか否かを判別し、ステップS111では変数Kが“6”に達したか否かを判別する。ステップS107の判別結果がNOであれば、ステップS109で変数LをインクリメントしてからステップS91に戻る。ステップS107の判別結果がYESでかつステップS111の判別結果がNOであれば、ステップS113で変数KをインクリメントしてからステップS89に戻る。ステップS107の判別結果およびステップS111の判別結果のいずれもがYESであれば、ステップS115に進む。 In step S107, it is determined whether or not the variable L has reached “4”, and in step S111, it is determined whether or not the variable K has reached “6”. If the determination result in step S107 is NO, the variable L is incremented in step S109, and the process returns to step S91. If the determination result in step S107 is YES and the determination result in step S111 is NO, the variable K is incremented in step S113, and the process returns to step S89. If both the determination result in step S107 and the determination result in step S111 are YES, the process proceeds to step S115.
 ステップS115ではフラグFLGが“1”であるか否かを判別し、判別結果がNOであればステップS133に進む一方、判別結果がYESであればステップS117に進む。ステップS117では変数Nを“1”に設定し、ステップS119では退避レジスタ14r2のN番目のカラムに設定された2つの数値を変数KおよびLにそれぞれ設定する。 In step S115, it is determined whether or not the flag FLG is “1”. If the determination result is NO, the process proceeds to step S133, and if the determination result is YES, the process proceeds to step S117. In step S117, the variable N is set to “1”, and in step S119, the two numerical values set in the Nth column of the save register 14r2 are set in the variables K and L, respectively.
 ステップS121では測定エリアDT_K_Lの周辺から1または2以上の適正エリアを探索し、ステップS123では探索に成功したか否かつまり隣接する1または2以上の適正エリアが発見されたか否かを判別する。 In step S121, one or two or more appropriate areas are searched from the periphery of the measurement area DT_K_L. In step S123, it is determined whether or not the search is successful, that is, whether one or more adjacent appropriate areas are found.
 判別結果がYESであればステップS125の処理を経てステップS129に進み、判別結果がNOであればステップS127の処理を経てステップS129に進む。ステップS125では、発見された1または2以上の適正エリアにそれぞれ対応する1または2以上の混雑度の平均値を測定エリアDT_K_Lの混雑度CR_K_Lとして算出する。ステップS127では、既定値を混雑度CR_K_Lとして設定する。 If the determination result is YES, the process proceeds to step S129 through the process of step S125, and if the determination result is NO, the process proceeds to step S129 through the process of step S127. In step S125, an average value of one or more congestion levels corresponding to one or more found appropriate areas is calculated as the congestion level CR_K_L of the measurement area DT_K_L. In step S127, a default value is set as the congestion degree CR_K_L.
 ステップS129では変数Nが最大値Nmaxに達したか否かを判別し、判別結果がNOであればステップS131で変数NをインクリメントしてからステップS119に戻る一方、判別結果がYESであればステップS133に進む。ステップS133では、ステップS105,S125,S127で得られた混雑度に基づいて空調装置D1~D6の出力を制御する。このような空調制御が完了すると、ステップS81に戻る。 In step S129, it is determined whether or not the variable N has reached the maximum value Nmax. If the determination result is NO, the variable N is incremented in step S131, and the process returns to step S119. If the determination result is YES, step S129 is performed. The process proceeds to S133. In step S133, the outputs of the air conditioners D1 to D6 are controlled based on the degree of congestion obtained in steps S105, S125, and S127. When such air conditioning control is completed, the process returns to step S81.
 以上の説明から分かるように、CPU14pは、空間を定義する平面FS1を鳥瞰した状態を表すマップ画像上で複数の分割エリアMP_1_1~MP_6_4を指定し(S21~S35)、指定された複数の分割エリアMP_1_1~MP_6_4にそれぞれ対応する複数の測定エリアDT_1_1~DT_6_4を平面FS1を捉えるカメラ12から出力された被写界像に割り当てる(S37~S55)。CPU14pはまた、カメラ画像に割り当てられた測定エリアDT_1_1~DT_6_4をサイズ条件に合致する適正エリアとサイズ条件から外れる不適正エリアとに分類し(S57~S69, S75, S79)、適正エリアに属する部分被写界の混雑度(=動き係数)をカメラ12から出力された被写界像に基づいて検出する(S83~S93, S99~S113)一方、不適正エリアに属する部分被写界の混雑度を適正エリアについて検出された混雑度に基づいて検出する(S95~S97, S115~S131)。 As can be seen from the above description, the CPU 14p designates a plurality of divided areas MP_1_1 to MP_6_4 on the map image representing the bird's-eye view of the plane FS1 defining the space (S21 to S35), and designates the plurality of designated divided areas. A plurality of measurement areas DT_1_1 to DT_6_4 respectively corresponding to MP_1_1 to MP_6_4 are allocated to the object scene image output from the camera 12 capturing the plane FS1 (S37 to S55). The CPU 14p also classifies the measurement areas DT_1_1 to DT_6_4 assigned to the camera image into appropriate areas that match the size conditions and inappropriate areas that are out of the size conditions (S57 to S69, S75, S79), and parts that belong to the appropriate areas The degree of congestion (= motion coefficient) of the object scene is detected based on the object scene image output from the camera 12 (S83 to S93, S99 to S113), while the degree of congestion of the partial object scene belonging to the inappropriate area Is detected based on the degree of congestion detected for the appropriate area (S95 to S97, S115 to S131).
 分割エリアMP_1_1~MP_6_4は平面FS1を鳥瞰した状態を表すマップ画像上で指定される一方、測定エリアDT_1_1~DT_6_4は平面FS1を捉えるカメラ12から出力された被写界像に割り当てられる。このため、カメラ12の位置および/または向きによっては、いずれかの測定エリアの一部または全部が被写界像からはみ出し、被写界像上に残った当該測定エリアのサイズが予想を下回るおそれがある。 The divided areas MP_1_1 to MP_6_4 are specified on a map image representing a state in which the plane FS1 is viewed, while the measurement areas DT_1_1 to DT_6_4 are assigned to the object scene image output from the camera 12 capturing the plane FS1. Therefore, depending on the position and / or orientation of the camera 12, some or all of the measurement area may protrude from the object scene image, and the size of the measurement area remaining on the object scene image may be less than expected. There is.
 この実施例では、測定エリアDT_1_1~DT_6_4がサイズ条件を満足する適正エリアとサイズ条件から外れる不適正エリアに分類され、適正エリアに属する部分被写界の混雑度はカメラ12から出力された被写界像に基づいて検出される一方、不適正エリアに属する部分被写界の混雑度は適正エリアについて検出された混雑度に基づいて検出される。これによって、被写界像に割り当てられた測定エリアのサイズの減少に起因する動き検出精度の低下が抑制される。 In this embodiment, the measurement areas DT_1_1 to DT_6_4 are classified into an appropriate area that satisfies the size condition and an inappropriate area that deviates from the size condition, and the degree of congestion of the partial field belonging to the appropriate area is determined by the object output from the camera 12. While detected based on the field image, the degree of congestion of the partial object scene belonging to the inappropriate area is detected based on the degree of congestion detected for the appropriate area. As a result, a decrease in motion detection accuracy due to a decrease in the size of the measurement area assigned to the object scene image is suppressed.
 なお、この実施例では、マウスポインタのクリック操作によってマークM_1~M_6の各々の座標を指定するようにしている。しかし、これに代えて、マークM_1~M_6の各々の座標値を直接的に指定するようにしてもよい。 In this embodiment, the coordinates of the marks M_1 to M_6 are designated by clicking the mouse pointer. However, instead of this, the coordinate values of the marks M_1 to M_6 may be directly specified.
 また、この実施例では、壁面上部に設置されたカメラ12によって斜め上方から平面FS1を捉えるようにしているが、これに代えて天井に設定された全方位カメラによって真上から平面FS1を捉えるようにしてもよい。 In this embodiment, the plane FS1 is captured obliquely from above by the camera 12 installed on the upper surface of the wall. Instead, the plane FS1 is captured from directly above by the omnidirectional camera set on the ceiling. It may be.
 さらに、この実施例では空調装置の出力を適応的に制御することを想定しているが、空調装置の出力に代えて或いは空調装置の出力とともに、照明装置の出力(つまり明るさ)を適応的に制御するようにしてもよい。 Further, in this embodiment, it is assumed that the output of the air conditioner is adaptively controlled. However, instead of the output of the air conditioner or together with the output of the air conditioner, the output (that is, brightness) of the lighting device is adaptive. You may make it control to.
 また、この実施例では、数1を参照した平面射影変換を想定しているが、これに代えて透視射影変換を行うようにしてもよい。 In this embodiment, the planar projective transformation referring to Equation 1 is assumed, but a perspective projective transformation may be performed instead.
 なお、この実施例では、平面FS1を鳥瞰した状態を模式的に表す画像をマップ画像として採用している。しかし、マップ画像は、上述した数1を参照した鳥瞰変換をカメラ画像に対して施すことで生成するようにしてもよい。ただし、この場合は、カメラ12の位置および/または向きによって、平面FS1の一部が再現できないおそれがある。 In this embodiment, an image schematically representing a state in which the plane FS1 is viewed from the bird's-eye view is employed as the map image. However, the map image may be generated by performing bird's-eye conversion with reference to Equation 1 described above on the camera image. However, in this case, a part of the plane FS1 may not be reproduced depending on the position and / or orientation of the camera 12.
 10 …混雑度測定装置
 12 …カメラ
 14 …画像処理回路
 14p …CPU
 16 …モニタ
 18 …入力装置

 
DESCRIPTION OF SYMBOLS 10 ... Congestion degree measuring device 12 ... Camera 14 ... Image processing circuit 14p ... CPU
16 ... monitor 18 ... input device

Claims (6)

  1.  空間を定義する平面を鳥瞰した状態を表す参照画像上で複数の第1エリアを指定する指定手段、
     前記指定手段によって指定された複数の第1エリアにそれぞれ対応する複数の第2エリアを前記平面を捉えるカメラから出力された被写界像に割り当てる割り当て手段、
     前記割り当て手段によって割り当てられた複数の第2エリアをサイズ条件に合致する適性エリアと前記サイズ条件から外れる不適正エリアとに分類する分類手段、
     前記分類手段によって分類された適正エリアに属する部分被写界の動き係数を前記カメラから出力された被写界像に基づいて検出する第1検出手段、および
     前記分類手段によって分類された不適正エリアに属する部分被写界の動き係数を前記第1検出手段によって検出された動き係数に基づいて検出する第2検出手段を備える、動き検出装置。
    A designation means for designating a plurality of first areas on a reference image representing a state in which a plane defining the space is bird's-eye view;
    Assigning means for assigning a plurality of second areas respectively corresponding to the plurality of first areas designated by the designation means to a scene image output from a camera capturing the plane;
    Classifying means for classifying the plurality of second areas assigned by the assigning means into suitability areas that match a size condition and improper areas that fall outside the size condition;
    First detection means for detecting a motion coefficient of a partial scene belonging to an appropriate area classified by the classification means based on a scene image output from the camera; and an inappropriate area classified by the classification means A motion detection apparatus comprising: second detection means for detecting a motion coefficient of a partial object scene belonging to the first scene based on the motion coefficient detected by the first detection means.
  2.  前記サイズ条件は注目する第2エリアに属する部分被写界を鳥瞰した状態を表す部分鳥瞰画像のサイズが基準を上回るという条件に相当する、請求項1記載の動き検出装置。 The motion detection apparatus according to claim 1, wherein the size condition corresponds to a condition that a size of a partial bird's-eye view image representing a state in which the partial scene belonging to the second area of interest exceeds a reference.
  3.  前記分類手段による前記不適正エリアの抽出に対応して報知を出力する報知手段をさらに備える、請求項1または2記載の動き検出装置。 The motion detection apparatus according to claim 1 or 2, further comprising notification means for outputting a notification corresponding to the extraction of the inappropriate area by the classification means.
  4.  前記第2検出手段は、前記分類手段によって分類された1または2以上の不適正エリアの各々を指定する指定手段、前記指定手段によって指定された不適正エリアに接する適正エリアを前記分類手段によって分類された1または2以上の適正エリアの中から探索する探索手段、および前記探索手段によって発見された適正エリアについて前記第1検出手段によって検出された動き係数に基づいて前記指定手段によって指定された不適正エリアの動き係数を算出する算出手段を含む、請求項1ないし3のいずれかに記載の動き検出装置。 The second detecting means designates each of one or more improper areas classified by the classifying means, and classifies an appropriate area in contact with the improper area designated by the designation means by the classifying means. Search means for searching from among the one or more appropriate areas that have been specified, and the error specified by the specifying means based on the motion coefficient detected by the first detection means for the appropriate area found by the search means. The motion detection apparatus according to claim 1, further comprising calculation means for calculating a motion coefficient of an appropriate area.
  5.  前記空間に向けて出力を発生する複数の装置の動作を前記第1検出手段および/または第2検出手段の検出結果に基づいて調整する調整手段をさらに備える、請求項1ないし4のいずれかに記載の動き検出装置。 5. The apparatus according to claim 1, further comprising an adjustment unit that adjusts operations of a plurality of devices that generate an output toward the space based on a detection result of the first detection unit and / or the second detection unit. The motion detection device described.
  6.  前記指定手段は、前記複数の装置の各々の位置を指定する指定操作を受け付ける受け付け手段、および前記指定操作によって指定された位置を基準として前記複数の第1エリアを定義する定義手段を含む、請求項5記載の動き検出装置。 The designation unit includes a reception unit that receives a designation operation that designates the position of each of the plurality of devices, and a definition unit that defines the plurality of first areas on the basis of the position designated by the designation operation. Item 6. The motion detection device according to Item 5.
PCT/JP2011/062927 2010-06-07 2011-06-06 Motion detection device WO2011155439A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010130205A JP2011257862A (en) 2010-06-07 2010-06-07 Motion detector
JP2010-130205 2010-06-07

Publications (1)

Publication Number Publication Date
WO2011155439A1 true WO2011155439A1 (en) 2011-12-15

Family

ID=45098046

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/062927 WO2011155439A1 (en) 2010-06-07 2011-06-06 Motion detection device

Country Status (2)

Country Link
JP (1) JP2011257862A (en)
WO (1) WO2011155439A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11282999A (en) * 1998-03-30 1999-10-15 East Japan Railway Co Instrument for measuring mobile object
JP2009110152A (en) * 2007-10-29 2009-05-21 Panasonic Corp Congestion estimation device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11282999A (en) * 1998-03-30 1999-10-15 East Japan Railway Co Instrument for measuring mobile object
JP2009110152A (en) * 2007-10-29 2009-05-21 Panasonic Corp Congestion estimation device

Also Published As

Publication number Publication date
JP2011257862A (en) 2011-12-22

Similar Documents

Publication Publication Date Title
EP1462995B1 (en) Method and apparatus for classifying defects
US7356177B2 (en) Defect image classifying method and apparatus and a semiconductor device manufacturing process based on the method and apparatus
CN110400352B (en) Camera calibration with feature recognition
US7991193B2 (en) Automated learning for people counting systems
US7627175B2 (en) Image segmentation method and device
JP2006302284A (en) System and method for transforming 2d image domain data into 3d high density range map
JP6584123B2 (en) Image processing apparatus, image processing method, and program
CN113203409B (en) Method for constructing navigation map of mobile robot in complex indoor environment
US20150293540A1 (en) Facility equipment operation device, facility equipment operation system, facility equipment operation method, and medium
CN106845338B (en) Pedestrian detection method and system in video stream
CN105279473B (en) Face image correction method and device and face recognition method and system
CN108629799B (en) Method and equipment for realizing augmented reality
CN106778587B (en) State of flight detection method and device based on unmanned plane image
US8503723B2 (en) Histogram-based object tracking apparatus and method
JP2019029935A (en) Image processing system and control method thereof
JP2023002652A (en) Image processing program, image processing device and image processing method
CN116152863A (en) Personnel information identification method and device, electronic equipment and storage medium
van den Hengel et al. Automatic camera placement for large scale surveillance networks
CN108460333B (en) Ground detection method and device based on depth map
JP3708042B2 (en) Image processing method and program
WO2011155439A1 (en) Motion detection device
WO2012008288A1 (en) Output controller
CN111240217A (en) State detection method and device, electronic equipment and storage medium
WO2019093297A1 (en) Information processing device, control method, and program
JP2011154449A (en) Congestion level measuring device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11792396

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11792396

Country of ref document: EP

Kind code of ref document: A1