JP2016171499A - Image collection apparatus, image correction method and computer program - Google Patents

Image collection apparatus, image correction method and computer program Download PDF

Info

Publication number
JP2016171499A
JP2016171499A JP2015050700A JP2015050700A JP2016171499A JP 2016171499 A JP2016171499 A JP 2016171499A JP 2015050700 A JP2015050700 A JP 2015050700A JP 2015050700 A JP2015050700 A JP 2015050700A JP 2016171499 A JP2016171499 A JP 2016171499A
Authority
JP
Japan
Prior art keywords
image
imaging
space
unit
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015050700A
Other languages
Japanese (ja)
Other versions
JP6495696B2 (en
Inventor
和美 長田
Kazumi Osada
和美 長田
榎原 孝明
Takaaki Enohara
孝明 榎原
禎敏 齋藤
Sadatoshi Saitou
禎敏 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015050700A priority Critical patent/JP6495696B2/en
Publication of JP2016171499A publication Critical patent/JP2016171499A/en
Application granted granted Critical
Publication of JP6495696B2 publication Critical patent/JP6495696B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image collection apparatus capable of efficiently collecting a background image necessary for generating a piece of dictionary information, an image collection method and a computer program.SOLUTION: The image collection apparatus includes an image storage section, an imaging control unit and an attribute giving section. The image storage section stores an image of a target space for detecting a person. The imaging control unit controls the timing when an imaging unit takes an image of the space to thereby acquire the image of the space. The attribute giving section acquires the image of the space from the imaging unit, and stores the acquired image in the image storage section while associating with a piece of attribute information relevant to the acquisition of the image.SELECTED DRAWING: Figure 3

Description

本発明の実施形態は、画像収集装置、画像収集方法及びコンピュータプログラムに関する。   Embodiments described herein relate generally to an image collection apparatus, an image collection method, and a computer program.

画像から動体を検出する一般的な手法の一つとして、画像の輝度変化に基づいて動体を検出するフレーム間差分法がある。フレーム間差分法は、連続して取得される画像間の差分を取得し、変化があった領域の被写体を動体として検出する手法である。このような動体検出の結果に基づいて、人を検出する技術が提案されている。
しかしながら、オフィスなどにカメラを設置した場合、人の動きだけでなく、外光や照明による空間の明るさの変化によって画像の輝度変化が生じる場合がある。そのため、実際には人が存在しないにも関わらず、人を誤検出する可能性がある。この問題を解決するため、検出対象の空間の背景画像を予め記憶し、取得された画像と背景画像との比較により輝度変化のあった領域が背景か否かを識別する技術が提案されている。しかしながら、このような従来技術を、明るさが変化するオフィスなどの空間に適用する場合、基準となる背景画像を明るさの変化に応じて随時更新する必要がある。
One common method for detecting a moving object from an image is an inter-frame difference method for detecting a moving object based on a change in luminance of the image. The inter-frame difference method is a method of acquiring a difference between images acquired continuously and detecting a subject in a region where the change has occurred as a moving object. A technique for detecting a person based on the result of such moving object detection has been proposed.
However, when a camera is installed in an office or the like, the luminance of an image may change due to changes in the brightness of the space caused by external light or illumination as well as human movement. Therefore, there is a possibility that a person is erroneously detected even though no person actually exists. In order to solve this problem, a technique has been proposed in which a background image of a space to be detected is stored in advance, and whether or not an area having a luminance change is a background by comparing the acquired image with the background image. . However, when such a conventional technique is applied to a space such as an office where the brightness changes, it is necessary to update the reference background image as needed according to the change in the brightness.

しかしながら、明るさの変化に応じて適切な背景画像に随時更新することは技術的に困難である。そのため、背景画像の特徴を示す辞書情報に基づいて、動体が背景か否かを識別する手法が検討されている。明るさが異なる状況で撮像された背景画像に基づいて生成された辞書情報を用いれば、輝度の変化が明るさの変化によるものか否かを識別することが可能になる。   However, it is technically difficult to update to an appropriate background image as needed according to changes in brightness. Therefore, a method for identifying whether or not a moving object is a background based on dictionary information indicating characteristics of a background image has been studied. Using dictionary information generated based on background images captured in different brightness situations, it is possible to identify whether or not the change in brightness is due to a change in brightness.

辞書情報を用いた背景識別の精度は、辞書情報の質によって左右される。辞書情報の質とは、辞書情報がどれだけ多くのパターンの背景画像に基づいて生成されたかによって決まる。そのため、質の高い辞書情報の生成には、非常に多くの背景画像が必要となり、背景画像の収集に多くの労力を要する場合があった。   The accuracy of background identification using dictionary information depends on the quality of the dictionary information. The quality of the dictionary information depends on how many patterns of dictionary information are generated based on the background image of the pattern. Therefore, in order to generate high quality dictionary information, a very large number of background images are required, and a lot of labor may be required to collect the background images.

特許第4619082号公報Japanese Patent No. 4619082 特許第4852159号公報Japanese Patent No. 4852159 特許第5349622号公報Japanese Patent No. 5349622

本発明が解決しようとする課題は、辞書情報の生成に必要な背景画像を効率良く収集することができる画像収集装置、画像収集方法及びコンピュータプログラムを提供することである。   The problem to be solved by the present invention is to provide an image collection apparatus, an image collection method, and a computer program that can efficiently collect background images necessary for generating dictionary information.

実施形態の画像収集装置は、画像記憶部と、撮像制御部と、属性付与部と、を持つ。画像記憶部は、人を検出する対象の空間が撮像された画像を記憶する。撮像制御部は、前記空間を撮像し前記空間の画像を取得する撮像部が前記空間を撮像するタイミングを制御する。属性付与部は、前記撮像部から前記空間の画像を取得し、取得した前記画像を、前記画像の取得に関する属性情報と対応づけて前記画像記憶部に記憶させる。   The image collection device according to the embodiment includes an image storage unit, an imaging control unit, and an attribute assigning unit. The image storage unit stores an image in which a space for detecting a person is captured. The imaging control unit controls the timing at which the imaging unit that images the space and acquires the image of the space images the space. The attribute assigning unit acquires the image of the space from the imaging unit, and stores the acquired image in the image storage unit in association with attribute information regarding acquisition of the image.

画像センサ1の利用例を示す図。The figure which shows the usage example of the image sensor 1. FIG. 第1の実施形態の調整用端末7を備える機器制御システムの構成を示すシステム構成図。The system block diagram which shows the structure of an apparatus control system provided with the terminal 7 for adjustment of 1st Embodiment. 画像センサ1の機能構成を示す機能ブロック図。2 is a functional block diagram showing a functional configuration of the image sensor 1. FIG. 画像センサ1が画像から人を検出する処理の流れを示すフローチャート。The flowchart which shows the flow of the process in which the image sensor 1 detects a person from an image. 第1の実施形態の調整用端末7の機能構成を示す機能ブロック図。The functional block diagram which shows the function structure of the terminal 7 for adjustment of 1st Embodiment. 第2の実施形態の調整用端末7aの機能構成を示す機能ブロック図。The functional block diagram which shows the function structure of the terminal 7a for adjustment of 2nd Embodiment. 第3の実施形態の調整用端末7bの機能構成を示す機能ブロック図。The functional block diagram which shows the function structure of the terminal 7b for adjustment of 3rd Embodiment. タスク照明及びアンビエント照明の具体例を示す図。The figure which shows the specific example of task lighting and ambient lighting. タスク・アンビエント制御の具体例を示す図。The figure which shows the specific example of task ambient control. 第4の実施形態の調整用端末7cの機能構成を示す機能ブロック図。The functional block diagram which shows the function structure of the terminal 7c for adjustment of 4th Embodiment. 撮像制御部75cの機能構成の詳細を示す機能ブロック図。The functional block diagram which shows the detail of a function structure of the imaging control part 75c. 人が不在となったエリアごとに背景画像を取得する例を示す図。The figure which shows the example which acquires a background image for every area where a person was absent.

以下、実施形態の画像収集装置、画像収集方法及びコンピュータプログラムを、図面を参照して説明する。   Hereinafter, an image collection device, an image collection method, and a computer program according to embodiments will be described with reference to the drawings.

(第1の実施形態)
図1は、画像センサ1の利用例を示す図である。
図1は、画像センサ1が、オフィスフロアの機器の制御に用いられた例を示す。図1の例の場合、照明機器20及び空調機器30が制御対象の機器である。画像センサ1は、オフィスフロアの天井10に設置され、オフィスフロアを撮像する。画像センサ1は、撮像した画像から環境情報や人物情報を取得する。環境情報は、撮像対象の空間(以下、「対象空間」という。)の環境に関する情報である。例えば、環境情報は、オフィスの照度や温度などを示す情報である。人物情報は、対象空間における人に関する情報である。例えば、人物情報は、人の在又は不在や人数、人の行動、人の活動量などを示す情報である。人物情報を取得するため、画像センサ1は、取得した画像を解析して人を検出する。画像センサ1は、取得した環境情報や人物情報を、照明機器20及び空調機器30を制御する制御装置に送信する。制御装置は、画像センサ1によって取得された環境情報や人物情報に基づいて、照明機器20及び空調機器30を制御するための制御情報を生成する。制御装置は、生成した制御情報を照明機器20及び空調機器30に送信する。照明機器20及び空調機器30が、制御装置から送信された制御情報に基づいて自装置を動作させる。このような制御によって、環境情報や人物情報に基づく機器の制御が実現される。
(First embodiment)
FIG. 1 is a diagram illustrating a usage example of the image sensor 1.
FIG. 1 shows an example in which the image sensor 1 is used to control equipment on an office floor. In the case of the example in FIG. 1, the lighting device 20 and the air conditioning device 30 are devices to be controlled. The image sensor 1 is installed on the ceiling 10 of the office floor and images the office floor. The image sensor 1 acquires environment information and person information from the captured image. The environment information is information regarding the environment of the imaging target space (hereinafter referred to as “target space”). For example, the environmental information is information indicating the illuminance or temperature of the office. The person information is information about a person in the target space. For example, the person information is information indicating the presence or absence of a person, the number of people, the behavior of the person, the amount of activity of the person, and the like. In order to acquire person information, the image sensor 1 analyzes the acquired image and detects a person. The image sensor 1 transmits the acquired environmental information and person information to a control device that controls the lighting device 20 and the air conditioning device 30. The control device generates control information for controlling the lighting device 20 and the air conditioning device 30 based on the environmental information and the person information acquired by the image sensor 1. The control device transmits the generated control information to the lighting device 20 and the air conditioning device 30. The lighting device 20 and the air conditioning device 30 operate the own device based on the control information transmitted from the control device. By such control, device control based on environmental information and personal information is realized.

例えば、人物情報として人の在又は不在を示す情報が取得される場合、制御装置は、人が居るエリアでは空調及び照明をONにし、人が居ないエリアでは空調及び照明をOFFにする、又は出力を下げるように空調及び照明を制御することができる。また、人が存在する場合には、タスク照明をONにするような制御も考えられる。また、デスクや通路など、人が検出された場所に応じてアンビエント照明の調光率を変化させるような制御も考えられる。   For example, when information indicating the presence or absence of a person is acquired as person information, the control device turns on air conditioning and lighting in an area where there is a person, and turns off air conditioning and lighting in an area where there is no person, or Air conditioning and lighting can be controlled to reduce output. In addition, when there is a person, control that turns on task lighting is also conceivable. In addition, control such as changing the dimming rate of the ambient lighting according to a place where a person is detected, such as a desk or a passage, can be considered.

また、例えば、人物情報として人の活動量を示す情報が取得される場合、制御装置は、活動量が小さい場合にはデスクワークをしている人が多いと判断して空調の出力を弱め、活動量が大きい場合には人が活発に活動していると判断して空調の出力を強めるように空調を制御することができる。また、例えば、人物情報として人の分布を示す情報が取得される場合、人の分布に応じてフロア内の照明の調光率を変化させるように照明を制御することができる。   Also, for example, when information indicating the amount of activity of a person is acquired as personal information, the control device determines that there are many people who are doing desk work when the amount of activity is small, and reduces the output of air conditioning. When the amount is large, it can be determined that the person is actively active and the air conditioning can be controlled to increase the output of the air conditioning. Further, for example, when information indicating a person distribution is acquired as the person information, the lighting can be controlled so as to change the dimming rate of the lighting in the floor according to the person distribution.

上記のように画像センサを用いて人物情報を取得する場合、画像から人を検出することが必要となる。従来、フレーム間差分法により抽出された領域の画像と、予め取得された背景画像とを比較することにより画像から人を検出する技術が提案されている。しかしながら、検出対象の明るさが変化するオフィスなどの空間である場合、照明のON又はOFFや、外光の入射等の影響により背景画像が大きく変化する。そのため、このような空間に従来技術を適用しようとした場合、検出対象の空間の明るさの変化に応じて背景画像を随時更新する必要があり、技術的な困難を伴う。そこで、背景画像の特徴を示す辞書情報に基づいて、動体が背景か否かを識別する手法が検討されている。明るさが異なる状況で撮像された背景画像に基づいて生成された辞書情報を用いれば、輝度の変化が明るさの変化によるものか否かを識別することが可能になる。   When acquiring person information using an image sensor as described above, it is necessary to detect a person from an image. Conventionally, there has been proposed a technique for detecting a person from an image by comparing an image of a region extracted by an inter-frame difference method with a background image acquired in advance. However, in a space such as an office where the brightness of the detection target changes, the background image changes greatly due to the influence of lighting ON or OFF, the incidence of external light, and the like. Therefore, when it is attempted to apply the conventional technique to such a space, it is necessary to update the background image as needed according to the change in the brightness of the space to be detected, which is technically difficult. Therefore, a method for identifying whether or not a moving object is a background based on dictionary information indicating the characteristics of a background image has been studied. Using dictionary information generated based on background images captured in different brightness situations, it is possible to identify whether or not the change in brightness is due to a change in brightness.

辞書情報を用いた背景識別の精度は、辞書情報の質によって左右される。辞書情報の質とは、辞書情報がどれだけ多くのパターンの背景画像に基づいて生成されたかによって決まる。そのため、質の高い辞書情報の生成には、非常に多くの背景画像が必要となり、背景画像の収集に多くの労力を要する場合があった。そのため、実施形態の機器制御システムは、所定の条件に基づいて背景画像の収集を制御する調整用端末を備える。   The accuracy of background identification using dictionary information depends on the quality of the dictionary information. The quality of the dictionary information depends on how many patterns of dictionary information are generated based on the background image of the pattern. Therefore, in order to generate high quality dictionary information, a very large number of background images are required, and a lot of labor may be required to collect the background images. Therefore, the device control system of the embodiment includes an adjustment terminal that controls collection of background images based on a predetermined condition.

図2は、第1の実施形態の調整用端末7を備える機器制御システムの構成を示すシステム構成図である。
図2の機器制御システムは、複数の画像センサ1−1〜1−3を備える。画像センサ1−1〜1−3は、画像から取得した人物情報や環境情報(以下、「検知情報」という。)をネットワークハブ2を介して、ゲートウェイサーバ3に送信する。ゲートウェイサーバ3は、各画像センサ1から送信された人物情報や環境情報を、BEMS(Building Energy Management System)4や機器制御装置5、可視化装置6、調整用端末7などに送信する。
FIG. 2 is a system configuration diagram illustrating a configuration of a device control system including the adjustment terminal 7 according to the first embodiment.
The device control system of FIG. 2 includes a plurality of image sensors 1-1 to 1-3. The image sensors 1-1 to 1-3 transmit personal information and environment information (hereinafter referred to as “detection information”) acquired from the images to the gateway server 3 via the network hub 2. The gateway server 3 transmits the person information and environment information transmitted from each image sensor 1 to a BEMS (Building Energy Management System) 4, a device control device 5, a visualization device 6, an adjustment terminal 7, and the like.

BEMS4は、センサなどから建物の使用エネルギーや室内環境を示す情報を取得し、これを省エネルギーに役立てるための分析や診断を行う。   The BEMS 4 acquires information indicating the energy used in the building and the indoor environment from a sensor or the like, and performs analysis and diagnosis to make use of this information for energy saving.

機器制御装置5は、検知情報に基づいて、制御対象の機器を最適に制御するための制御情報を生成する。機器制御装置5は、生成した制御情報を送信することで、制御対象の機器を制御する。機器制御装置5の制御対象となる機器は、例えば、空調機器や、照明機器、エレベータなどの機器である。   The device control device 5 generates control information for optimally controlling the device to be controlled based on the detection information. The device control apparatus 5 controls the device to be controlled by transmitting the generated control information. A device to be controlled by the device control device 5 is a device such as an air conditioner, a lighting device, and an elevator, for example.

可視化装置6は、機器制御システムの情報を可視化する装置である。例えば、可視化装置6は、BEMS4による分析や診断の結果を取得して、建物の使用エネルギーや室内環境などを可視化する。   The visualization device 6 is a device that visualizes information of the device control system. For example, the visualization device 6 obtains the results of analysis and diagnosis by the BEMS 4 and visualizes the energy used in the building, the indoor environment, and the like.

調整用端末7(画像収集装置)は、画像センサ1と通信し、画像センサ1の各種設定や調整を行うための調整プログラムがインストールされた端末である。例えば、調整用端末7は、PC(Personal Computer)やスマートフォン、タブレットなどの情報端末である。なお、調整プログラムは、画像センサ1と通信可能であれば、調整用端末7以外の他の装置にインストールされてもよい。   The adjustment terminal 7 (image collection device) is a terminal that communicates with the image sensor 1 and that has an adjustment program installed for performing various settings and adjustments of the image sensor 1. For example, the adjustment terminal 7 is an information terminal such as a PC (Personal Computer), a smartphone, or a tablet. The adjustment program may be installed in a device other than the adjustment terminal 7 as long as it can communicate with the image sensor 1.

ネットワークハブ2及び調整用端末7は機器ネットワーク40に接続され、BEMS4、機器制御装置5及び可視化装置6は制御ネットワーク50に接続される。例えば、制御ネットワーク50はEthernet(登録商標)などのネットワークであり、制御ネットワーク50は、BACnetIPネットワークである。機器ネットワーク40に接続された装置と、制御ネットワーク50に接続された装置との通信は、ゲートウェイサーバ3のプロトコル変換により中継される。   The network hub 2 and the adjustment terminal 7 are connected to the device network 40, and the BEMS 4, the device control device 5, and the visualization device 6 are connected to the control network 50. For example, the control network 50 is a network such as Ethernet (registered trademark), and the control network 50 is a BACnetIP network. Communication between the device connected to the device network 40 and the device connected to the control network 50 is relayed by protocol conversion of the gateway server 3.

なお、機器ネットワーク40及び制御ネットワーク50は、各ネットワーク間の通信が可能であれば、上記と異なるネットワークであってもよい。例えば、機器ネットワーク40及び制御ネットワーク50は、特定用途に規格化された産業用Ethernet(登録商標)などのネットワークであってもよいし、独自プロトコルのネットワークであってもよい。また、機器ネットワーク40及び制御ネットワーク50は、同一のネットワークであってもよい。   The device network 40 and the control network 50 may be different networks as long as communication between the networks is possible. For example, the device network 40 and the control network 50 may be a network such as industrial Ethernet (registered trademark) standardized for a specific application, or may be a network of a unique protocol. The device network 40 and the control network 50 may be the same network.

図3は、画像センサ1の機能構成を示す機能ブロック図である。
画像センサ1は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、画像センサプログラムを実行する。画像センサ1は、画像センサプログラムの実行によって通信部11、撮像部12、画像記憶部13、辞書情報記憶部14、動体検出部15、動体判定部16及び人判定部17を備える装置として機能する。なお、画像センサ1の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。画像センサプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。画像センサプログラムは、電気通信回線を介して送信されてもよい。
FIG. 3 is a functional block diagram showing a functional configuration of the image sensor 1.
The image sensor 1 includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes an image sensor program. The image sensor 1 functions as a device including the communication unit 11, the imaging unit 12, the image storage unit 13, the dictionary information storage unit 14, the moving object detection unit 15, the moving object determination unit 16, and the person determination unit 17 by executing the image sensor program. . Note that all or part of the functions of the image sensor 1 may be realized using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). The image sensor program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The image sensor program may be transmitted via a telecommunication line.

通信部11は、自装置をネットワークハブ2に接続するための通信インターフェースを用いて構成される。通信部11は、ネットワークハブ2を介して、機器ネットワーク40及び制御ネットワーク50に接続された各種装置と通信する。   The communication unit 11 is configured using a communication interface for connecting the own device to the network hub 2. The communication unit 11 communicates with various devices connected to the device network 40 and the control network 50 via the network hub 2.

撮像部12は、カメラ等の撮像装置を用いて構成される。撮像部12は、制御対象の機器についての検知情報が取得可能な位置及び向きに設置される。撮像部12は、設置位置と向きに応じた空間を撮像し、画像データを取得する。撮像部12は、取得した画像データを画像記憶部13に保存する。   The imaging unit 12 is configured using an imaging device such as a camera. The imaging unit 12 is installed at a position and orientation at which detection information about the device to be controlled can be acquired. The imaging unit 12 captures a space corresponding to the installation position and orientation, and acquires image data. The imaging unit 12 stores the acquired image data in the image storage unit 13.

画像記憶部13及び辞書情報記憶部14は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。画像記憶部13は、撮像部12によって取得された画像データを記憶する。辞書情報記憶部14は、動体判定に用いられる辞書情報を記憶する。辞書情報とは、背景画像から抽出された特徴量と、背景の各種特徴との対応を示す情報である。辞書情報は、予め撮像された画像(以下、「事前画像」という。)に基づいて生成され、予め辞書情報記憶部14に記憶される。以下、この辞書情報の生成及び記憶を学習と呼ぶ。   The image storage unit 13 and the dictionary information storage unit 14 are configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The image storage unit 13 stores the image data acquired by the imaging unit 12. The dictionary information storage unit 14 stores dictionary information used for moving object determination. The dictionary information is information indicating correspondence between the feature amount extracted from the background image and various features of the background. The dictionary information is generated based on a pre-captured image (hereinafter referred to as “pre-image”) and stored in the dictionary information storage unit 14 in advance. Hereinafter, this generation and storage of dictionary information is referred to as learning.

動体検出部15は、検出対象の空間が撮像された複数の画像に基づいて、動体と推定される動体候補を検出する。動体候補を検出する手法には、フレーム間差分、オプティカルフロー、テンプレートマッチングなどを用いることができる。   The moving object detection unit 15 detects a moving object candidate that is estimated to be a moving object based on a plurality of images obtained by imaging the space to be detected. As a method for detecting moving object candidates, inter-frame difference, optical flow, template matching, and the like can be used.

動体判定部16は、辞書情報に基づいて、動体検出部15によって検出された動体候補が動体であるか否かを判定する。具体的には、動体判定部16は、辞書情報が示す背景画像の特徴に基づいて、動体候補が背景であるか否かを判定する。動体判定部16は、動体候補が背景でないと判定された場合に、動体候補は動体であると判定する。動体候補が背景であるか否かを判定する手法には、ニューラルネットワーク、SVM(Support Vector Machine)、k近傍識別器、ベイズ分類などを用いることができる。   The moving object determination unit 16 determines whether the moving object candidate detected by the moving object detection unit 15 is a moving object based on the dictionary information. Specifically, the moving object determination unit 16 determines whether the moving object candidate is a background based on the characteristics of the background image indicated by the dictionary information. When it is determined that the moving object candidate is not the background, the moving object determination unit 16 determines that the moving object candidate is a moving object. As a method for determining whether or not a moving object candidate is the background, a neural network, SVM (Support Vector Machine), k neighborhood classifier, Bayesian classification, or the like can be used.

人判定部17(人検出部)は、動体判定部によって判定された動体が人であるか否かを判定する。   The person determination unit 17 (person detection unit) determines whether or not the moving object determined by the moving object determination unit is a person.

図4は、画像センサ1が画像から人を検出する処理の流れを示すフローチャートである。
まず、撮像部12が検出対象の空間を撮像して画像データを取得する(ステップS101)。撮像部12は、取得した画像データと、画像データを取得したタイミングを示す情報とを対応づけて画像記憶部13に保存する。
FIG. 4 is a flowchart showing a flow of processing in which the image sensor 1 detects a person from an image.
First, the imaging unit 12 captures a space to be detected and acquires image data (step S101). The imaging unit 12 stores the acquired image data in the image storage unit 13 in association with information indicating the timing at which the image data was acquired.

動体検出部15は、画像記憶部13から画像データを取得する。このとき、動体検出部15は、取得されたタイミングの順に画像データを取得する。動体検出部15は、取得した画像データに基づいて、動体候補を検出する(ステップS102)。例えば、動体検出部15は、取得した画像のフレーム間差分に基づいて動体候補を検出する。そして、動体検出部15は、動体候補が検出された領域(以下、「動体候補領域」という。)を示す情報を動体判定部16に出力する(ステップS103)。   The moving object detection unit 15 acquires image data from the image storage unit 13. At this time, the moving object detection unit 15 acquires image data in the order of the acquired timing. The moving object detection unit 15 detects moving object candidates based on the acquired image data (step S102). For example, the moving object detection unit 15 detects a moving object candidate based on the inter-frame difference of the acquired image. Then, the moving object detection unit 15 outputs information indicating the area where the moving object candidate is detected (hereinafter referred to as “moving object candidate area”) to the moving object determination unit 16 (step S103).

動体判定部16は、動体検出部15から出力された動体候補領域の画像の特徴量を算出する。ここで抽出する特徴量には、特許文献2に記載された累積差分などの輝度変化に関する特徴量や、特許文献3に記載されたCoHOG(Co-occurrence Histograms of Oriented Gradients)などの輝度分布に関する特徴量が用いられてもよい。動体判定部16は、算出した特徴量と辞書情報とに基づいて、動体候補領域の画像と背景画像との類似度を算出する(ステップS104)。動体判定部16は、算出した類似度に基づいて、動体候補が動体であるか否かを判定する。動体候補が動体であると判定された場合、動体判定部16は、動体候補領域を、動体が検出された領域(以下、「動体領域」という。)とし、動体領域を示す情報を人判定部17に出力する(ステップS105)。   The moving object determination unit 16 calculates the feature amount of the image of the moving object candidate region output from the moving object detection unit 15. The feature amount extracted here is a feature amount related to a luminance change such as a cumulative difference described in Patent Document 2 or a feature related to a luminance distribution such as CoHOG (Co-occurrence Histograms of Oriented Gradients) described in Patent Document 3. An amount may be used. The moving object determination unit 16 calculates the similarity between the image of the moving object candidate region and the background image based on the calculated feature amount and dictionary information (step S104). The moving object determination unit 16 determines whether the moving object candidate is a moving object based on the calculated similarity. When it is determined that the moving object candidate is a moving object, the moving object determination unit 16 sets the moving object candidate area as an area where the moving object is detected (hereinafter referred to as “moving object area”), and information indicating the moving object area is a human determination unit. 17 (step S105).

人判定部17は、動体判定部16から出力された動体領域の画像に基づいて、動体が人であるか否かを判定する(ステップS106)。   The person determination unit 17 determines whether the moving object is a person based on the moving object region image output from the moving object determination unit 16 (step S106).

なお、特徴量の抽出や、背景と動体との識別処理は、各画素を単位として行われてもよいし、画像から抽出される領域を単位として行われてもよい。この場合、特徴量の抽出や識別処理は、外接矩形など、抽出された領域を包含する領域を単位として行われてもよい。   It should be noted that feature amount extraction and background / moving object identification processing may be performed in units of pixels, or may be performed in units of regions extracted from an image. In this case, feature amount extraction and identification processing may be performed in units of regions including the extracted regions, such as circumscribed rectangles.

図5は、第1の実施形態の調整用端末7の機能構成を示す機能ブロック図である。
調整用端末7は、バスで接続されたCPUやメモリや補助記憶装置などを備え、調整プログラムを実行する。調整用端末は、調整プログラムの実行によって通信部71、記憶部72、画像データ取得部73、属性付与部74及び撮像制御部75を備える装置として機能する。なお、調整用端末7の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。調整プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。調整プログラムは、電気通信回線を介して送信されてもよい。
FIG. 5 is a functional block diagram illustrating a functional configuration of the adjustment terminal 7 according to the first embodiment.
The adjustment terminal 7 includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus and executes an adjustment program. The adjustment terminal functions as a device including the communication unit 71, the storage unit 72, the image data acquisition unit 73, the attribute assignment unit 74, and the imaging control unit 75 by executing the adjustment program. Note that all or part of the functions of the adjustment terminal 7 may be realized using hardware such as an ASIC, PLD, or FPGA. The adjustment program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The adjustment program may be transmitted via a telecommunication line.

通信部71は、自装置を機器ネットワーク40に接続するための通信インターフェースを用いて構成される。通信部71は、ネットワークハブ2又はゲートウェイサーバ3を介して、機器ネットワーク40及び制御ネットワーク50に接続された各種装置と通信する。   The communication unit 71 is configured using a communication interface for connecting the own apparatus to the device network 40. The communication unit 71 communicates with various devices connected to the device network 40 and the control network 50 via the network hub 2 or the gateway server 3.

記憶部72は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成され、画像情報を記憶する。画像情報は、撮像部12により取得された画像データと、その画像データの取得に関する属性情報とが対応付けられた情報である。画像情報は、属性付与部74が画像データに属性情報を付与することによって対応づけられる。   The storage unit 72 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device, and stores image information. The image information is information in which image data acquired by the imaging unit 12 is associated with attribute information regarding acquisition of the image data. The image information is associated by the attribute adding unit 74 adding the attribute information to the image data.

画像データ取得部73は、画像センサ1に対する背景画像の撮像指示がなされたことの通知(以下、「撮像指示通知」という。)を受け、画像センサ1から背景画像を取得する。この通知は、撮像制御部75によって行われる。画像データ取得部73は、取得した画像データを記憶部72に保存する。   The image data acquisition unit 73 receives a notification (hereinafter referred to as “imaging instruction notification”) that a background image capturing instruction has been given to the image sensor 1, and acquires a background image from the image sensor 1. This notification is performed by the imaging control unit 75. The image data acquisition unit 73 stores the acquired image data in the storage unit 72.

属性付与部74は、撮像制御部75から撮像指示通知を受け、その撮像指示に基づいて(すなわち、撮像部12の撮像に同期して)、取得された画像データに付与する属性情報を取得する。具体的には、属性情報は、背景画像の撮像動作に関する撮像部12の設定を示す撮像設定情報、又は撮像対象の空間の撮像時の状態に関する情報を示す空間状態情報である。例えば、撮像設定情報は、シャッタースピードやゲイン、ホワイトバランス等のカメラパラメータである。また、空間状態情報は、上記の人物情報や環境情報、人物情報又は環境情報の取得において生成された中間データなどの情報である。属性付与部74は、これらの属性情報を画像センサ1から取得する。属性付与部74は、記憶部72に記憶された背景画像の画像データに、取得した属性情報を対応付けて画像情報を生成する。属性付与部74は、生成した画像情報を記憶部72に保存する。   The attribute assigning unit 74 receives an imaging instruction notification from the imaging control unit 75, and acquires attribute information to be added to the acquired image data based on the imaging instruction (that is, in synchronization with the imaging of the imaging unit 12). . Specifically, the attribute information is imaging setting information indicating settings of the imaging unit 12 regarding the imaging operation of the background image, or space state information indicating information regarding the state of the imaging target space at the time of imaging. For example, the imaging setting information is camera parameters such as shutter speed, gain, and white balance. Further, the spatial state information is information such as the above-described person information, environment information, person information, or intermediate data generated in the acquisition of environment information. The attribute assigning unit 74 acquires the attribute information from the image sensor 1. The attribute assigning unit 74 associates the acquired attribute information with the image data of the background image stored in the storage unit 72 to generate image information. The attribute assigning unit 74 stores the generated image information in the storage unit 72.

撮像制御部75は、画像センサ1に背景画像の撮像を指示する。例えば、撮像制御部75は、他の装置から送信される指示や、キーボードやマウスなどの入力装置からの入力される指示に応じて、画像センサ1に背景画像の撮像指示を行う。撮像制御部75は、画像センサ1に撮像指示を行ったことを、撮像指示通知によって画像データ取得部73及び属性付与部74に通知する。   The imaging control unit 75 instructs the image sensor 1 to capture a background image. For example, the imaging control unit 75 instructs the image sensor 1 to capture a background image in response to an instruction transmitted from another device or an instruction input from an input device such as a keyboard or a mouse. The imaging control unit 75 notifies the image data acquisition unit 73 and the attribute assignment unit 74 that an imaging instruction has been given to the image sensor 1 by an imaging instruction notification.

このように構成された第1の実施形態の調整用端末7は、画像センサ1に背景画像の取得を指示するとともに、指示に応じて撮像された背景画像を画像センサ1から取得する。そして、調整用端末7は、取得した背景画像に属性情報を付与して蓄積する。このような機能を備えることにより、調整用端末7は、画像センサ1が用いる辞書情報の生成に必要な大量の事前画像の収集にかかる労力を削減することができる。また、このように、背景画像と、属性情報とが対応づけて取得されることによって、辞書情報の生成に必要な情報をまとめて取得することができる。   The adjustment terminal 7 according to the first embodiment configured as described above instructs the image sensor 1 to acquire a background image, and acquires a background image captured according to the instruction from the image sensor 1. Then, the adjustment terminal 7 adds attribute information to the acquired background image and accumulates it. By providing such a function, the adjustment terminal 7 can reduce the labor required for collecting a large amount of preliminary images necessary for generating dictionary information used by the image sensor 1. Further, as described above, the background image and the attribute information are acquired in association with each other, so that information necessary for generating dictionary information can be acquired collectively.

(第2の実施形態)
背景画像を収集するタイミングは、背景画像が変化する要因となりうる人が不在であるタイミングが望ましい。そのため、例えばビルなどの背景画像を収集する場合、人が入居する前の調整時に行われるのが一般的である。しかしながら、大規模ビルであれば数千台の画像センサが設置される場合もあり、調整員が各画像センサに対して、それぞれ画像取得の指示をしていると作業効率が低下する。そのため、第2の実施形態の調整用端末7aは、背景画像の取得に関して予め設定された条件に基づいて、背景画像を自動的に収集する構成を備える。
(Second Embodiment)
The timing at which the background image is collected is preferably a timing at which there is no person who can cause the background image to change. For this reason, for example, when collecting a background image of a building or the like, it is generally performed at the time of adjustment before a person moves in. However, in the case of a large-scale building, thousands of image sensors may be installed, and if the coordinator instructs each image sensor to acquire an image, the work efficiency decreases. Therefore, the adjustment terminal 7a according to the second embodiment includes a configuration that automatically collects background images based on conditions set in advance regarding acquisition of background images.

図6は、第2の実施形態の調整用端末7aの機能構成を示す機能ブロック図である。
第2の実施形態の調整用端末7aは、記憶部72に代えて記憶部72aを備える点、撮像制御部75に代えて撮像制御部75aを備える点で第1の実施形態の調整用端末7と異なる。他の機能部は、調整用端末7と同様である。そのため、図6では、記憶部72a及び撮像制御部75a以外の機能部については、図5と同様の符号を付すことにより説明を省略する。
FIG. 6 is a functional block diagram illustrating a functional configuration of the adjustment terminal 7a according to the second embodiment.
The adjustment terminal 7a of the second embodiment is provided with a storage unit 72a instead of the storage unit 72, and an adjustment terminal 7 of the first embodiment is provided with an imaging control unit 75a instead of the imaging control unit 75. And different. Other functional units are the same as those of the adjustment terminal 7. Therefore, in FIG. 6, functional units other than the storage unit 72a and the imaging control unit 75a are denoted by the same reference numerals as those in FIG.

記憶部72aは、画像情報に加えて、背景画像の撮像に関する条件を示す撮像条件情報(取得条件情報)を記憶する点で第1の実施形態における記憶部72と異なる。例えば、撮像条件情報は、画像収集の開始時刻、画像収集に要する所要時間、対象とする画像センサ1などを示す情報である。
撮像制御部75aは、撮像条件情報に基づいて、画像センサ1に背景画像の撮像を行わせるタイミングを制御する。
The storage unit 72a is different from the storage unit 72 in the first embodiment in that it stores imaging condition information (acquisition condition information) indicating conditions related to imaging of a background image in addition to image information. For example, the imaging condition information is information indicating the start time of image collection, the time required for image collection, the target image sensor 1, and the like.
The imaging control unit 75a controls the timing at which the image sensor 1 captures the background image based on the imaging condition information.

このように構成された第2の実施形態の調整用端末7aは、予め設定された撮像条件に基づいて画像センサ1を制御することで、背景画像の収集を自動的に実行することができる。そのため、大量の背景画像の収集作業を効率化することが出来る。   The adjustment terminal 7a of the second embodiment configured as described above can automatically collect background images by controlling the image sensor 1 based on preset imaging conditions. Therefore, it is possible to improve the efficiency of collecting a large amount of background images.

なお、上記の撮像条件情報の設定は、どのような態様で行われてもよい。例えば、撮像制御部75aは、撮像条件情報を含むファイルを他の装置や記憶媒体から取得してもよい。また、撮像制御部75aは、撮像条件を入力する設定画面を自装置の表示部に表示させ、ユーザの入力に基づいて撮像条件情報を生成してもよい。また、設定画面は、背景画像の収集に関する指示をユーザが直接入力可能なように構成されてもよい。   Note that the above-described setting of the imaging condition information may be performed in any manner. For example, the imaging control unit 75a may acquire a file including imaging condition information from another device or a storage medium. In addition, the imaging control unit 75a may display a setting screen for inputting imaging conditions on the display unit of its own apparatus, and generate imaging condition information based on a user input. Further, the setting screen may be configured such that the user can directly input an instruction relating to collection of the background image.

調整用端末7aがこのような機能を備えることにより、ユーザは、画像センサ1を用いた背景画像の収集作業を遠隔制御することも可能となる。例えば、ユーザは、対象の画像センサ1を目視で確認しつつ、背景画像の撮像指示を行うことが可能となる。   When the adjustment terminal 7 a has such a function, the user can remotely control the background image collection operation using the image sensor 1. For example, the user can issue an instruction to capture a background image while visually confirming the target image sensor 1.

(第3の実施形態)
画像センサ1による動体と背景との識別の精度は、識別に用いられる辞書情報の質に左右される。そのため、動体と背景とを精度良く識別するためには、質の高い辞書情報が必要である。辞書情報の質は、辞書情報がどれだけ多くのパターンの背景画像に基づいて生成されているかによって決まる。そのため、背景画像に対する明るさの影響を考慮する場合、質の高い辞書情報を生成するには、明るさの異なる状況で撮像された背景画像が必要になる。しかしながら、このような撮像条件で背景画像を取得するのには多くの労力がかかる。そのため、第3の実施形態の調整用端末7bは、照明機器など空間の明るさに影響を与える機器を制御して、撮像対象の空間を撮像条件に応じた状態に変化させる構成を備える。
(Third embodiment)
The accuracy of identifying the moving object and the background by the image sensor 1 depends on the quality of dictionary information used for identification. Therefore, high-quality dictionary information is required to accurately identify moving objects and backgrounds. The quality of dictionary information is determined by how many patterns of dictionary information are generated based on background images. For this reason, when considering the influence of brightness on the background image, in order to generate high-quality dictionary information, background images captured in different brightness situations are required. However, much labor is required to acquire a background image under such imaging conditions. For this reason, the adjustment terminal 7b according to the third embodiment includes a configuration that controls a device that affects the brightness of the space, such as a lighting device, and changes the space to be imaged to a state according to the imaging conditions.

図7は、第3の実施形態の調整用端末7bの機能構成を示す機能ブロック図である。
第3の実施形態の調整用端末7bは、記憶部72aに代えて記憶部72bを備える点、撮像制御部75aに代えて撮像制御部75bを備える点、状態取得部76及び制御信号生成部77をさらに備える点で第2の実施形態の調整用端末7aと異なる。他の機能部は、調整用端末7aと同様である。そのため、図7では、記憶部72b、撮像制御部75b、状態取得部76及び制御信号生成部77以外の機能部については、図6と同様の符号を付すことにより説明を省略する。
FIG. 7 is a functional block diagram illustrating a functional configuration of the adjustment terminal 7b according to the third embodiment.
The adjustment terminal 7b of the third embodiment includes a storage unit 72b instead of the storage unit 72a, a point including an imaging control unit 75b instead of the imaging control unit 75a, a state acquisition unit 76, and a control signal generation unit 77. Is different from the adjustment terminal 7a of the second embodiment in that Other functional units are the same as those of the adjustment terminal 7a. Therefore, in FIG. 7, functional units other than the storage unit 72b, the imaging control unit 75b, the state acquisition unit 76, and the control signal generation unit 77 are denoted by the same reference numerals as those in FIG.

記憶部72bは、画像情報及び撮像条件情報に加え、検出対象の空間に関する各種設備の状態を示す設備状態情報を記憶する。   In addition to the image information and the imaging condition information, the storage unit 72b stores facility state information indicating the state of various facilities related to the detection target space.

状態取得部76(設備状態取得部)は、設備状態情報を定期的に取得して記憶部72bに保存する。例えば、状態取得部76は、BEMS40から設備状態情報を取得する。   The state acquisition unit 76 (equipment state acquisition unit) periodically acquires the equipment state information and stores it in the storage unit 72b. For example, the state acquisition unit 76 acquires equipment state information from the BEMS 40.

撮像制御部75bは、撮像条件情報に基づいて、画像センサ1による背景画像の撮像を制御する。なお、本実施形態の撮像条件情報は、背景画像を取得する際の各設備の状態(以下、「撮像時状態」という。)に関する条件を含む。撮像制御部75bは、撮像条件情報に基づいて各設備の撮像時状態を決定する。撮像制御部75bは、決定した各設備の撮像時状態を制御信号生成部77に通知することで、撮像対象の空間を撮像条件に応じた状態に変化させる。撮像制御部75bは、設備状態情報に基づいて各設備の現在の状態を判断し、各設備の状態が撮像時状態となったタイミングで画像センサ1に背景画像の撮像を指示する。   The imaging control unit 75b controls imaging of the background image by the image sensor 1 based on the imaging condition information. Note that the imaging condition information of the present embodiment includes conditions relating to the state of each facility (hereinafter referred to as “imaging state”) when a background image is acquired. The imaging control unit 75b determines the imaging state of each facility based on the imaging condition information. The imaging control unit 75b notifies the control signal generation unit 77 of the determined imaging state of each facility, thereby changing the imaging target space to a state corresponding to the imaging condition. The imaging control unit 75b determines the current state of each facility based on the facility state information, and instructs the image sensor 1 to capture a background image at the timing when the state of each facility becomes the imaging state.

制御信号生成部77(機器制御部)は、検出対象の空間に関する各設備の動作を制御する制御信号を生成する。具体的には、制御信号生成部77は、撮像制御部75bから制御対象の設備の撮像時状態を取得し、各設備の状態を撮像時状態に変更する制御信号を生成する。制御信号生成部77は、生成した制御信号を制御対象の各設備に送信する。   The control signal generation unit 77 (device control unit) generates a control signal for controlling the operation of each facility related to the space to be detected. Specifically, the control signal generation unit 77 acquires the imaging state of the equipment to be controlled from the imaging control unit 75b, and generates a control signal for changing the state of each facility to the imaging state. The control signal generation unit 77 transmits the generated control signal to each facility to be controlled.

以下、撮像対象の空間に関する各種設備の制御について、タスク照明及びアンビエント照明の制御を例に説明する。   Hereinafter, control of various facilities related to the space to be imaged will be described using control of task illumination and ambient illumination as an example.

図8は、タスク照明及びアンビエント照明の具体例を示す図である。
ビルの照明機器には、例えば、天井に設置されたアンビエント照明と、作業者が必要に応じて机上に設置するタスク照明とがある。タスク照明は、視作業用の照度を確保するための照明機器であり、アンビエント照明は、視作業が行われる領域全体の照度を確保するための照明機器である。これらのアンビエント照明及びタスク照明の制御は「タスク・アンビエント制御」と呼ばれる。タスク・アンビエント制御は、制御対象の空間を、人が存在する空間であるタスク領域と、それ以外の空間であるアンビエント領域とに分けて、異なる照明機器を異なる条件で制御する方法である。タスク・アンビエント制御では、タスク領域には必要な照度を与え、その他の周辺領域には、これより低い照度を与えるのが一般的である。
FIG. 8 is a diagram illustrating specific examples of task lighting and ambient lighting.
Building lighting equipment includes, for example, ambient lighting installed on the ceiling and task lighting installed on a desk by an operator as needed. The task lighting is a lighting device for securing the illuminance for visual work, and the ambient lighting is the lighting device for securing the illuminance of the entire region where the visual work is performed. Control of these ambient lighting and task lighting is called “task / ambient control”. Task / ambient control is a method of controlling different lighting devices under different conditions by dividing a space to be controlled into a task region in which a person exists and an ambient region in other spaces. In the task / ambient control, a necessary illuminance is generally given to the task area and a lower illuminance is given to the other peripheral areas.

図8の例の場合、人の在又は不在を検知するセンサ100の検知結果に応じて、照明機器のタスク・アンビエント制御が行われる。符号101−1〜101−4が示す天井に設置された照明機器がアンビエント照明であり、符号102−1及び102−2が示す各机に設置された照明機器がタスク照明である。例えば、この場合、作業中の人がいる机のタスク照明102−1は、作業に必要な照度が確保されるように制御され、人がいない机のタスク照明102−2は消灯される。また、アンビエント照明101−1〜101−4は、周辺環境の明るさが確保されるように制御される。一般に、アンビエント照明は、タスク照明の1/2〜1/3の照度となるように制御される。   In the case of the example of FIG. 8, task / ambient control of the lighting device is performed according to the detection result of the sensor 100 that detects the presence or absence of a person. The lighting equipment installed on the ceiling indicated by reference numerals 101-1 to 101-4 is ambient lighting, and the lighting equipment installed on each desk indicated by reference numerals 102-1 and 102-2 is task lighting. For example, in this case, the task lighting 102-1 of the desk where the person is working is controlled so as to ensure the illuminance necessary for the work, and the task lighting 102-2 of the desk where there is no person is turned off. In addition, the ambient lights 101-1 to 101-4 are controlled so that the brightness of the surrounding environment is ensured. In general, the ambient lighting is controlled to have an illuminance that is 1/2 to 1/3 of the task lighting.

図9は、タスク・アンビエント制御の具体例を示す図である。
図9は、オフィスのレイアウトを示す図である。図9のオフィス天井には、アンビエント照明200−1〜200−4が設置されており、フロアには机201−1〜201−8が設置されている。この場合、画像センサ1によって、例えば、机201−3及び201−6に人がいることが判定された場合、タスク・アンビエント制御によって、机201−3及び201−6のタスク照明と、アンビエント照明200−2及び200−3が点灯される。
FIG. 9 is a diagram illustrating a specific example of task / ambient control.
FIG. 9 is a diagram showing an office layout. Ambient lights 200-1 to 200-4 are installed on the office ceiling of FIG. 9, and desks 201-1 to 201-8 are installed on the floor. In this case, for example, when it is determined by the image sensor 1 that there are people on the desks 201-3 and 201-6, the task lighting and the ambient lighting of the desks 201-3 and 201-6 are performed by the task ambient control. 200-2 and 200-3 are lit.

このようなタスク・アンビエント制御が行われる環境では、点灯する照明の箇所、点灯する照明の数、それぞれの照明の調光率などの影響により背景画像の映り方が大きく異なってくる。そのため、調整用端末7bは、タスク・アンビエント制御において発生しうる照明機器の状態(以下、「制御パターン」という。)を実現するように照明機器を制御した上で画像センサ1に背景画像を取得させる。例えば、調整用端末7bは、図9のように一部の照明機器が点灯した状態や、全ての照明機器が点灯した状態を実現して、それぞれの状態で撮像された背景画像を取得する。また、撮像対象の空間に複数の画像センサ1が設置される場合、調整用端末7bは、各画像センサ1に対応する設備で制御パターンを実現してもよいし、隣接する複数の画像センサ1に対応する設備で制御パターンを実現してもよい。各制御パターンにおける各機器の状態は予め撮像条件情報に設定されており、制御信号生成部77によって各制御パターンが実現される。   In an environment in which such task / ambient control is performed, the manner in which the background image is projected varies greatly depending on the location of the lighting to be turned on, the number of lights to be turned on, the dimming rate of each lighting, and the like. Therefore, the adjustment terminal 7b acquires the background image in the image sensor 1 after controlling the lighting device so as to realize the state of the lighting device that may occur in the task / ambient control (hereinafter referred to as “control pattern”). Let For example, the adjustment terminal 7b realizes a state in which some lighting devices are turned on as shown in FIG. 9 or a state in which all lighting devices are turned on, and acquires a background image captured in each state. When a plurality of image sensors 1 are installed in a space to be imaged, the adjustment terminal 7b may realize a control pattern with equipment corresponding to each image sensor 1 or a plurality of adjacent image sensors 1. You may implement | achieve a control pattern with the equipment corresponding to. The state of each device in each control pattern is set in advance in the imaging condition information, and each control pattern is realized by the control signal generation unit 77.

このように構成された第3の実施形態の調整用端末7bは、撮像対象の空間の明るさに関する設備を撮像条件情報が示す状態となるように制御した後、画像センサ1に背景画像の取得を指示する。調整用端末7bがこのような機能を持つことによって、背景画像の収集をより柔軟に制御することが可能となり、背景画像の収集作業をより効率的に行うことが可能となる。   The adjustment terminal 7b according to the third embodiment configured as described above acquires the background image in the image sensor 1 after controlling the equipment related to the brightness of the space to be imaged to be in the state indicated by the imaging condition information. Instruct. Since the adjustment terminal 7b has such a function, background image collection can be controlled more flexibly, and background image collection work can be performed more efficiently.

なお、撮像対象の空間の明るさの強度が強すぎる場合、取得される背景画像において白とびや黒潰れなどの撮像不良が発生する可能性がある。そのため、調整用端末7bは、撮像不良が発生した場合には、必要に応じて背景画像の再取得を行うように構成されてもよい。この場合、例えば、画像データ取得部73は、取得した画像データに撮像不良が発生していないかを確認する。撮像不良が発生している場合、画像データ取得部73は、撮像制御部75bに、撮像不良が発生した画像データを通知する。撮像制御部75bは、通知された画像データの撮像設定情報に基づいて、撮像不良が抑制されるようなカメラパラメータを算出する。撮像制御部75bは、算出したカメラパラメータを画像センサ1に送信するとともに、背景画像の再取得を指示する。   Note that if the brightness intensity of the space to be imaged is too strong, there is a possibility that an imaging failure such as overexposure or blackout may occur in the acquired background image. Therefore, the adjustment terminal 7b may be configured to reacquire a background image as necessary when an imaging failure occurs. In this case, for example, the image data acquisition unit 73 checks whether or not imaging failure has occurred in the acquired image data. When the imaging failure has occurred, the image data acquisition unit 73 notifies the imaging control unit 75b of the image data in which the imaging failure has occurred. The imaging control unit 75b calculates camera parameters that suppress imaging defects based on the imaging setting information of the notified image data. The imaging control unit 75b transmits the calculated camera parameters to the image sensor 1 and instructs to reacquire a background image.

以下、第3の実施形態の調整用端末7bの変形例について説明する。   Hereinafter, modifications of the adjustment terminal 7b according to the third embodiment will be described.

動体と背景との識別を精度良く行うためには、照明による明るさの影響に加え、外光による明るさの影響を考慮する必要がある。そのため、質の高い辞書情報の生成には、外光が入射している状態で撮像された背景画像が必要になる。そのため、調整用端末7bは、太陽の位置と天候とに応じてブラインドを制御することで、外光が入射する状況を作り出すことが可能な構成を備えてもよい。   In order to accurately identify the moving object and the background, it is necessary to consider the effect of brightness due to external light in addition to the effect of brightness due to illumination. Therefore, in order to generate high-quality dictionary information, a background image captured in a state where external light is incident is necessary. Therefore, the adjustment terminal 7b may include a configuration capable of creating a situation in which external light is incident by controlling the blind according to the position of the sun and the weather.

この場合、撮像条件情報は、撮像対象の空間におけるブラインドの状態に関する条件を示す。例えば、撮像条件情報は、太陽の位置や天候に応じて、ブラインドをどの程度開くかの条件を示す。撮像制御部75bは、その日の天候を示す天候情報を外部のシステムや装置から取得する。また、撮像制御部75bは、撮像対象の空間の位置や高さなどの位置情報と、太陽位置の予測モデルとに基づいて、撮像対象の空間から観察した任意の日時における太陽の位置を算出する。そして、撮像制御部75bは、算出した太陽の位置情報と取得した天候情報とに基づいて、ブラインド装置の撮像時状態を決定する。撮像制御部75bは、決定したブラインドの撮像時状態を制御信号生成部77に通知することで、ブラインドの状態を撮像時状態に変更させる。   In this case, the imaging condition information indicates a condition relating to a blind state in the imaging target space. For example, the imaging condition information indicates how much the blind is to be opened according to the position of the sun and the weather. The imaging control unit 75b acquires weather information indicating the weather of the day from an external system or device. In addition, the imaging control unit 75b calculates the position of the sun at an arbitrary date and time observed from the imaging target space, based on position information such as the position and height of the imaging target space and the prediction model of the sun position. . Then, the imaging control unit 75b determines the imaging state of the blind device based on the calculated sun position information and the acquired weather information. The imaging control unit 75b notifies the control signal generation unit 77 of the determined blind imaging state, thereby changing the blind state to the imaging state.

例えば、ビル内の空間が撮像対象の空間である場合、撮像制御部75bは、その時点での太陽位置と当日の天候とに基づいて、ビルにおいて太陽光が当たっている場所を推定し、太陽光が当たっている場所のブラインドを開くように制御信号生成部77に指示する。撮像制御部75bは、ブラインドが開かれた後に、画像センサ1に背景画像の取得を指示する。   For example, when the space in the building is a space to be imaged, the imaging control unit 75b estimates the location where sunlight hits the building based on the sun position at that time and the weather of the day, The control signal generation unit 77 is instructed to open the blind in the place where the light hits. The imaging control unit 75b instructs the image sensor 1 to acquire a background image after the blind is opened.

このような機能を備えることにより、調整用端末7bは、太陽の位置と当日の天候とに基づいて太陽位置を算出し、太陽位置に応じた場所のブラインド装置を制御して、太陽光が入射する状態の背景画像を取得する。このような機能を備えることにより、調整用端末7bは、太陽光が入射した状況における背景画像の取得を効率良く行うことができる。   By providing such a function, the adjustment terminal 7b calculates the sun position based on the position of the sun and the weather of the day, and controls the blind device in a place corresponding to the sun position, so that sunlight enters. Get the background image of the state to be. By providing such a function, the adjustment terminal 7b can efficiently acquire a background image in a situation where sunlight is incident.

なお、この場合、撮像制御部75bは、太陽光の入射角度に応じて、ブラインドの開閉量や、開閉角度を変更してもよい。このような制御を行うことにより、調整用端末7bは、様々なパターンで外光が入射する状況で撮像された背景画像を取得することができる。   In this case, the imaging control unit 75b may change the blind opening / closing amount and the opening / closing angle according to the incident angle of sunlight. By performing such control, the adjustment terminal 7b can acquire a background image captured in a situation where external light is incident in various patterns.

なお、このような制御は、明るさによって異なるパターンで撮像される背景画像をより多く取得することである。そのため、天候情報や太陽の位置情報に基づいてどのようにブラインドを制御するかは、任意の基準によって定められてよい。上記では空間に外光が入射する状況を作り出すためにブラインドを開ける制御を行う例を示したが、例えば、これとは逆に、外光が入射しない状況を作り出すためにブラインドを閉じる制御が行われてもよい。また、外光があまりない状況であってもブラインドを開放する制御が行われてもよい。   Note that such control is to acquire more background images captured in different patterns depending on brightness. Therefore, how to control the blind based on the weather information and the sun position information may be determined by an arbitrary standard. In the above example, the blind opening control is performed to create a situation in which external light is incident on the space. For example, on the contrary, the blind closing control is performed to create a situation in which no external light is incident. It may be broken. Further, control for opening the blinds may be performed even in a situation where there is not much external light.

また、撮像制御部75bは、撮像条件や太陽位置、当日や週間の天候などに基づいて、背景画像を取得するスケジュールを生成し、生成したスケジュールに基づいてブラインド装置を制御して背景画像を取得するように構成されてもよい。このような制御を行うことにより、調整用端末7bは、ビルの現地調整などの時間の制約がある状況において、効率的に背景画像を収集することができる。   In addition, the imaging control unit 75b generates a schedule for acquiring a background image based on imaging conditions, the sun position, the weather of the day or week, and acquires the background image by controlling the blind device based on the generated schedule. It may be configured to. By performing such control, the adjustment terminal 7b can efficiently collect background images in a situation where there is a time constraint such as on-site adjustment of a building.

(第4の実施形態)
上述したとおり、質の高い辞書情報の生成には、様々な条件下で撮像された背景画像が必要となる。しかしながら、このような背景画像を取得できる時間には制約があることも多い。例えば、ビルの工事中に行う現地調整では、他の工事との兼ね合いで十分な時間が確保できない可能性がある。また、ビルの完成後、人が入居した後では、このような調整時間を十分に確保することはより困難となる。そのため、第4の実施形態の調整用端末7cは、背景画像の取得に関する優先度を決定し、優先度に基づいて背景画像を収集する構成を備える。
(Fourth embodiment)
As described above, the generation of high-quality dictionary information requires a background image captured under various conditions. However, there are many restrictions on the time for acquiring such a background image. For example, in the local adjustment performed during the construction of a building, there is a possibility that sufficient time cannot be secured due to the balance with other construction. In addition, after the building is completed, it is more difficult to secure sufficient adjustment time after a person moves in. For this reason, the adjustment terminal 7c according to the fourth embodiment has a configuration that determines the priority for obtaining the background image and collects the background image based on the priority.

図10は、第4の実施形態の調整用端末7cの機能構成を示す機能ブロック図である。
第4の実施形態の調整用端末7cは、撮像制御部75bに変えて撮像制御部75cを備える点で、第3の実施形態の調整用端末7bと異なる。他の機能部は、調整用端末7bと同様である。そのため、図10では、撮像制御部75c以外の機能部については、図7と同様の符号を付すことにより説明を省略する。
FIG. 10 is a functional block diagram illustrating a functional configuration of the adjustment terminal 7c according to the fourth embodiment.
The adjustment terminal 7c according to the fourth embodiment is different from the adjustment terminal 7b according to the third embodiment in that the adjustment terminal 7c includes an imaging control unit 75c instead of the imaging control unit 75b. Other functional units are the same as those of the adjustment terminal 7b. Therefore, in FIG. 10, functional units other than the imaging control unit 75c are denoted by the same reference numerals as those in FIG.

図11は、撮像制御部75cの機能構成の詳細を示す機能ブロック図である。
撮像制御部75cは、所要時間算出部751及び優先度決定部752を備える。
所要時間算出部751は、撮像条件情報に基づいて、各撮像条件における背景画像の収集に要する所要時間を算出する。例えば、所要時間算出部751は、背景画像を取得する対象となる画像センサ1の台数と、1台の画像センサ1による背景画像の取得に要する時間とに基づいて、所定数の背景画像の取得に要する所要時間を算出する。また、例えば、所要時間算出部751は、制御信号生成部77の制御対象となる各設備の台数や、制御信号の送受信に要する時間、各制御に要する時間等に基づいて、各設備の制御に必要となる時間を算出してもよい。所要時間算出部751は、このような各所要時間を算出することにより、各撮像条件における背景画像の収集に要する所要時間を算出する。所要時間算出部751は、算出した各撮像条件における所要時間を示す情報を優先度決定部752に出力する。
FIG. 11 is a functional block diagram illustrating details of the functional configuration of the imaging control unit 75c.
The imaging control unit 75c includes a required time calculation unit 751 and a priority determination unit 752.
The required time calculation unit 751 calculates the required time required to collect the background image under each imaging condition based on the imaging condition information. For example, the required time calculation unit 751 acquires a predetermined number of background images based on the number of image sensors 1 from which a background image is acquired and the time required to acquire the background image by one image sensor 1. Calculate the time required for. Further, for example, the required time calculation unit 751 controls each facility based on the number of facilities to be controlled by the control signal generation unit 77, the time required for transmission / reception of control signals, the time required for each control, and the like. The required time may be calculated. The required time calculation unit 751 calculates the required time for collecting the background image under each imaging condition by calculating each required time. The required time calculation unit 751 outputs information indicating the calculated required time for each imaging condition to the priority determination unit 752.

優先度決定部752は、所要時間算出部751から各撮像条件の背景画像収集における所要時間を示す情報を取得する。優先度決定部752は、取得した各撮像条件の所要時間に基づいて、各撮像条件の優先度を決定する。例えば、優先度決定部752は、制限時間内に取得可能な撮像条件について優先度を高く設定し、制限時間を超える撮像条件について優先度を低く設定する。また、例えば、優先度決定部752は、各設備の状態変更に要する所要時間が短い撮像条件について優先度を高く設定し、各設備の状態変更に要する所要時間が長い撮像条件について優先度を低く設定してもよい。また、例えば、優先度決定部752は、各撮像条件の所要時間が短い順に優先度を高く設定してもよい。   The priority determination unit 752 acquires information indicating the time required for collecting the background image of each imaging condition from the required time calculation unit 751. The priority determination unit 752 determines the priority of each imaging condition based on the acquired time required for each imaging condition. For example, the priority determination unit 752 sets a high priority for imaging conditions that can be acquired within the time limit, and sets a low priority for imaging conditions that exceed the time limit. In addition, for example, the priority determination unit 752 sets a high priority for an imaging condition in which the time required for changing the state of each facility is short, and lowers a priority for an imaging condition in which the required time for changing the state of each facility is long. It may be set. Further, for example, the priority determination unit 752 may set the priority higher in the order from the shortest time required for each imaging condition.

このように構成された第4の実施形態の調整用端末7cは、各撮像条件での背景画像の取得に要する各種の所要時間に基づいて、背景画像を取得する際の優先度を決定し、決定した優先度の順に背景画像を収集する。このような機能を備えることによって、調整用端末7cは、様々な条件下での背景画像の撮像を効率良く行うことができる。   The adjustment terminal 7c of the fourth embodiment configured as described above determines the priority for acquiring the background image based on various time required for acquiring the background image under each imaging condition, The background images are collected in the order of the determined priority. By providing such a function, the adjustment terminal 7c can efficiently capture a background image under various conditions.

以上説明した少なくともひとつの実施形態によれば、人を検出する対象の空間が撮像された画像を記憶する画像記憶部と、前記空間を撮像し前記空間の画像を取得する撮像部が前記空間を撮像するタイミングを制御する撮像制御部と、前記撮像部から前記空間の画像を取得し、取得した前記画像を、前記画像の取得に関する属性情報と対応づけて前記画像記憶部に記憶させる属性付与部と、を持つことにより、辞書情報の生成に必要な背景画像を効率良く収集することができる。   According to at least one embodiment described above, an image storage unit that stores an image in which a space for detecting a person is captured, and an imaging unit that captures the space and obtains an image of the space are stored in the space. An imaging control unit that controls the timing of imaging, and an attribute adding unit that acquires an image of the space from the imaging unit, and stores the acquired image in the image storage unit in association with attribute information related to the acquisition of the image , It is possible to efficiently collect background images necessary for generating dictionary information.

以下、上記の実施形態の調整用端末の変形例について説明する。   Hereinafter, modifications of the adjustment terminal according to the above embodiment will be described.

背景画像の撮像条件には、撮像対象の空間の場所に応じて異なる条件が設定されてもよい。例えば、ビルにおいて、執務室と廊下、エレベータホールなどの場所に応じた撮像条件が設定されてもよい。   Different conditions may be set as the background image capturing condition depending on the location of the space to be imaged. For example, in a building, imaging conditions may be set according to places such as office rooms, hallways, and elevator halls.

また、画像センサに必要な辞書情報は、撮像対象の空間の使用用途、レイアウト、求められる検出精度などに応じて異なる場合がある。例えば、執務室と比較して、廊下は歩行者が多く、エレベータホールは立って待っている人が多い。このような場合、画像から検出される動体領域の面積や、動体の動きの時間間隔が異なる。そのため、調整用端末は、識別対象の空間の性質に応じて、背景画像の量を調整してもよい。   Further, the dictionary information necessary for the image sensor may differ depending on the intended use of the space to be imaged, the layout, the required detection accuracy, and the like. For example, compared to the office room, there are more pedestrians in the hallway and more people are standing and waiting in the elevator hall. In such a case, the area of the moving object region detected from the image and the time interval of movement of the moving object are different. Therefore, the adjustment terminal may adjust the amount of the background image according to the property of the space to be identified.

また、撮像対象の空間の使用用途によっては照明装置の制御パターンや、外光の取り入れ方が異なる。例えば、会議室であればプロジェクタの使用に応じて、エントランスホールでれば電光掲示板や大型テレビに撮像される映像に応じて、空間の明るさが変化する。このような場合、背景画像の撮像条件には、個々の空間の特性に応じた条件が設定されてもよい。この場合、撮像制御部は、制御信号生成部にプロジェクタや電光掲示板、大型テレビの制御を指示し、これらの機器によって異なる明るさとなった空間について背景画像を取得する。   Further, the control pattern of the lighting device and the way of taking in external light differ depending on the usage application of the space to be imaged. For example, the brightness of the space changes in accordance with the use of a projector in a conference room, and in the entrance hall in accordance with an image captured on an electric bulletin board or a large television. In such a case, conditions according to the characteristics of the individual spaces may be set as the background image capturing conditions. In this case, the imaging control unit instructs the control signal generation unit to control the projector, the electric bulletin board, and the large television, and acquires a background image for a space having different brightness depending on these devices.

また、背景画像は、人が不在の環境で取得することが望ましい。そのため、調整用端末は、画像センサ1による検知情報を取得して、人が不在のタイミングで画像取得を行うように構成されてもよい。また、複数の画像センサが設置された大きな部屋などでは、調整用端末は、部屋単位での制御ではなく、次の図12のように、人が不在となったエリアごとに背景画像を取得するように制御してもよい。このような制御による背景画像の収集は、例えば、ビル引き渡し前の現地調整時だけでなく、ビル引き渡し後の運用時にも適用できる。このような背景画像の取得を行えば、ビルの運用中の背景画像を随時画像センサ1に学習させることができる。   In addition, it is desirable to obtain the background image in an environment where no person is present. Therefore, the adjustment terminal may be configured to acquire detection information from the image sensor 1 and acquire an image at a timing when no person is present. Also, in a large room where a plurality of image sensors are installed, the adjustment terminal acquires a background image for each area where a person is absent, as shown in FIG. You may control as follows. The collection of background images by such control can be applied not only during on-site adjustment before building delivery, but also during operation after building delivery. If such a background image is acquired, the image sensor 1 can be made to learn the background image during operation of the building as needed.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1、1−1、1−2、1−3…画像センサ,11…通信部,12…撮像部,13…画像記憶部,14…辞書情報記憶部,15…動体検出部,16…動体判定部,17…人判定部,2…ネットワークハブ,3…ゲートウェイサーバ,4…BEMS(Building Energy Management System),5…機器制御装置,6…可視化装置,7、7a、7b、7c…調整用端末,71…通信部,72、72a、72b…記憶部,73…画像データ取得部,74…属性付与部,75、75a、75b、75c…撮像制御部,751…所要時間算出部,752…優先度算出部,76…状態取得部,77…制御信号生成部,10…天井,20…照明機器,30…空調機器,40…機器ネットワーク,50…制御ネットワーク,100…センサ,101−1〜101−4…アンビエント照明,102−1、102−2…タスク照明,200−1〜200−4…アンビエント照明,201−1〜201−8…机 DESCRIPTION OF SYMBOLS 1, 1-1, 1-2, 1-3 ... Image sensor, 11 ... Communication part, 12 ... Imaging part, 13 ... Image storage part, 14 ... Dictionary information storage part, 15 ... Moving body detection part, 16 ... Moving body determination , 17... Human determination unit, 2... Network hub, 3. Gateway server, 4... BEMS (Building Energy Management System), 5 .. device control device, 6 .. visualization device, 7, 7a, 7b, 7c. , 71 ... Communication section, 72, 72a, 72b ... Storage section, 73 ... Image data acquisition section, 74 ... Attribute assignment section, 75, 75a, 75b, 75c ... Imaging control section, 751 ... Required time calculation section, 752 ... Priority Degree calculation section, 76 ... status acquisition section, 77 ... control signal generation section, 10 ... ceiling, 20 ... lighting equipment, 30 ... air conditioning equipment, 40 ... equipment network, 50 ... control network, 100 ... sensor, 101-1 to 101 -4 ... Ambi Cement lighting, 102-1, 102-2 ... task lighting, 200-1~200-4 ... ambient lighting, 201-1~201-8 ... desk

Claims (13)

人を検出する対象の空間が撮像された画像を記憶する画像記憶部と、
前記空間を撮像し前記空間の画像を取得する撮像部が前記空間を撮像するタイミングを制御する撮像制御部と、
前記撮像部から前記空間の画像を取得し、取得した前記画像を、前記画像の取得に関する属性情報と対応づけて前記画像記憶部に記憶させる属性付与部と、
を備える画像収集装置。
An image storage unit for storing an image in which a space for detecting a person is captured;
An imaging control unit that controls the timing at which an imaging unit that captures the space and acquires an image of the space captures the space;
An attribute providing unit that acquires an image of the space from the imaging unit, and stores the acquired image in the image storage unit in association with attribute information related to the acquisition of the image;
An image collecting apparatus comprising:
前記属性情報は、前記撮像部が前記画像を取得した時の撮像動作に関して設定された情報を示す撮像設定情報を含む、
請求項1に記載の画像収集装置。
The attribute information includes imaging setting information indicating information set regarding an imaging operation when the imaging unit acquires the image.
The image collecting apparatus according to claim 1.
前記属性情報は、前記画像が取得された時の前記空間の状態を示す空間状態情報を含む、
請求項1又は2に記載の画像収集装置。
The attribute information includes space state information indicating a state of the space when the image is acquired.
The image collecting apparatus according to claim 1.
前記属性付与部は、前記タイミングに同期して前記撮像部から前記撮像設定情報を取得する、
請求項2又は3に記載の画像収集装置。
The attribute assigning unit acquires the imaging setting information from the imaging unit in synchronization with the timing;
The image collecting apparatus according to claim 2.
前記撮像制御部は、前記撮像部による前記画像の取得に関する条件を示す取得条件情報に基づいて前記タイミングを制御する、
請求項1から4のいずれか一項に記載の画像収集装置。
The imaging control unit controls the timing based on acquisition condition information indicating a condition related to acquisition of the image by the imaging unit;
The image collection device according to claim 1.
前記空間の明るさを変化させる設備を制御する機器制御部と、
前記設備の現在の状態を示す設備状態情報を取得する設備状態取得部と、
をさらに備え、
前記取得条件情報は、前記撮像部が前記画像を取得する際の前記設備の状態に関する条件を示し、
前記撮像制御部は、前記取得条件情報によって示される条件が満たされるような前記設備の状態を前記設備の撮像時状態として決定し、前記設備状態情報に基づいて現在の前記設備の状態を判断し、現在の前記設備の状態が前記撮像時状態となったタイミングで前記撮像部に前記空間の撮像を指示し、
前記機器制御部は、前記設備の状態が前記撮像時状態となるように前記設備を制御する、
請求項5に記載の画像収集装置。
A device control unit for controlling equipment for changing the brightness of the space;
An equipment state acquisition unit for acquiring equipment state information indicating the current state of the equipment;
Further comprising
The acquisition condition information indicates a condition related to the state of the equipment when the imaging unit acquires the image,
The imaging control unit determines a state of the facility that satisfies a condition indicated by the acquisition condition information as an imaging state of the facility, and determines a current state of the facility based on the facility state information. , Instructing the imaging unit to image the space at the timing when the current state of the equipment becomes the imaging state,
The device control unit controls the facility so that the state of the facility becomes the imaging state.
The image collecting apparatus according to claim 5.
前記取得条件情報は、前記撮像部が前記画像を取得する際の前記空間のブラインドの状態に関する条件を示し、
前記設備状態情報は、前記ブラインドの現在の状態を示し、
前記撮像制御部は、前記取得条件情報とその日の天候を示す天候情報とに基づいて、前記ブラインドの撮像時状態を決定し、現在の前記ブラインドの状態が前記撮像時状態となったタイミングで前記撮像部に前記空間の撮像を指示し、
前記機器制御部は、前記ブラインドの状態が前記撮像時状態となるように前記ブラインドを制御する、
請求項6に記載の画像収集装置。
The acquisition condition information indicates a condition relating to a blind state of the space when the imaging unit acquires the image,
The equipment status information indicates the current status of the blind,
The imaging control unit determines the imaging state of the blind based on the acquisition condition information and weather information indicating the weather of the day, and at the timing when the current state of the blind becomes the imaging state Instruct the imaging unit to image the space,
The device control unit controls the blind so that the state of the blind is the imaging state;
The image collecting apparatus according to claim 6.
前記取得条件情報は、前記撮像部が前記画像を取得する際の前記空間のブラインドの状態に関する条件を示し、
前記設備状態情報は、前記ブラインドの現在の状態を示し、
前記撮像制御部は、前記取得条件情報と太陽の位置を示す太陽位置情報とに基づいて、前記ブラインドの撮像時状態を決定し、現在の前記ブラインドの状態が前記撮像時状態となったタイミングで前記撮像部に前記空間の撮像を指示し、
前記機器制御部は、前記ブラインドの状態が前記撮像時状態となるように前記ブラインドを制御する、
請求項6に記載の画像収集装置。
The acquisition condition information indicates a condition relating to a blind state of the space when the imaging unit acquires the image,
The equipment status information indicates the current status of the blind,
The imaging control unit determines an imaging state of the blind based on the acquisition condition information and solar position information indicating a sun position, and at a timing when the current state of the blind becomes the imaging state. Instructing the imaging unit to image the space,
The device control unit controls the blind so that the state of the blind is the imaging state;
The image collecting apparatus according to claim 6.
前記取得条件情報は、前記画像の取得に関する複数の条件を示し、
各条件での前記空間の画像の取得に要する所要時間を算出する所要時間算出部と、
前記所要時間に基づいて、各条件の前記画像の取得に関する優先度を決定する優先度決定部と、
をさらに備える、
請求項5から8のいずれか一項に記載の画像収集装置。
The acquisition condition information indicates a plurality of conditions related to acquisition of the image,
A required time calculation unit for calculating a required time required to acquire an image of the space under each condition;
A priority determining unit that determines a priority for acquiring the image of each condition based on the required time;
Further comprising
The image collection device according to claim 5.
前記取得条件情報は、場所に応じた前記画像の取得条件を示し、
前記制御部は、前記取得条件情報に基づいて、撮像対象の空間の場所に応じた取得条件で前記撮像部に前記空間の撮像を指示する、
請求項5から9のいずれか一項に記載の画像収集装置。
The acquisition condition information indicates an acquisition condition of the image according to a location,
The control unit instructs the imaging unit to image the space under an acquisition condition according to a location of a space to be imaged based on the acquisition condition information.
The image collection device according to claim 5.
前記撮像制御部は、前記空間の画像に基づいて前記空間に存在する人を検出する人検出部から前記空間における人の検出結果を取得し、前記検出結果に基づいて人が不在であるタイミングで前記空間を撮像するように前記撮像部を制御する、
請求項1から10のいずれか一項に記載の画像収集装置。
The imaging control unit acquires a detection result of the person in the space from a person detection unit that detects a person existing in the space based on the image of the space, and at a timing when the person is absent based on the detection result. Controlling the imaging unit to image the space;
The image collection device according to claim 1.
人を検出する対象の空間が撮像された画像を記憶する画像記憶部を備える画像収集装置が行う画像収集方法であって、
前記空間を撮像し前記空間の画像を取得する撮像部が前記空間を撮像するタイミングを制御する撮像制御ステップと、
前記撮像部から前記空間の画像を取得し、取得した前記画像を、前記画像の取得に関する属性情報と対応づけて前記画像記憶部に記憶させる属性付与ステップと、
を有する画像収集方法。
An image collecting method performed by an image collecting apparatus including an image storage unit that stores an image obtained by capturing a space in which a person is detected,
An imaging control step for controlling the timing at which the imaging unit that images the space and acquires the image of the space captures the space;
An attribute providing step of acquiring an image of the space from the imaging unit, and storing the acquired image in the image storage unit in association with attribute information relating to the acquisition of the image;
An image collecting method.
人を検出する対象の空間が撮像された画像を記憶する画像記憶部を備える画像収集装置が行う画像収集方法における、
前記空間を撮像し前記空間の画像を取得する撮像部が前記空間を撮像するタイミングを制御する撮像制御ステップと、
前記撮像部から前記空間の画像を取得し、取得した前記画像を、前記画像の取得に関する属性情報と対応づけて前記画像記憶部に記憶させる属性付与ステップと、
をコンピュータに実行させるためのコンピュータプログラム。
In an image collection method performed by an image collection device including an image storage unit that stores an image in which a space for detecting a person is captured,
An imaging control step for controlling the timing at which the imaging unit that images the space and acquires the image of the space captures the space;
An attribute providing step of acquiring an image of the space from the imaging unit, and storing the acquired image in the image storage unit in association with attribute information relating to the acquisition of the image;
A computer program for causing a computer to execute.
JP2015050700A 2015-03-13 2015-03-13 Image collecting apparatus, image collecting method, and computer program Active JP6495696B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015050700A JP6495696B2 (en) 2015-03-13 2015-03-13 Image collecting apparatus, image collecting method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015050700A JP6495696B2 (en) 2015-03-13 2015-03-13 Image collecting apparatus, image collecting method, and computer program

Publications (2)

Publication Number Publication Date
JP2016171499A true JP2016171499A (en) 2016-09-23
JP6495696B2 JP6495696B2 (en) 2019-04-03

Family

ID=56984259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015050700A Active JP6495696B2 (en) 2015-03-13 2015-03-13 Image collecting apparatus, image collecting method, and computer program

Country Status (1)

Country Link
JP (1) JP6495696B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019008460A (en) * 2017-06-22 2019-01-17 株式会社東芝 Object detection device and object detection method and program
US10867378B2 (en) 2016-11-30 2020-12-15 Rakuten, Inc. Image processing device, image processing method, server, and computer program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000341679A (en) * 1999-06-01 2000-12-08 Secom Co Ltd Picture recognizing device and monitoring device
JP2002157598A (en) * 2000-11-16 2002-05-31 Japan Radio Co Ltd System for detecting invader
JP2003199099A (en) * 2001-12-27 2003-07-11 Canon Inc Apparatus and method for processing image as well as computer program and computer readable storage medium
JP2009211525A (en) * 2008-03-05 2009-09-17 Mitsubishi Electric Corp Object detector
JP2010044669A (en) * 2008-08-15 2010-02-25 Seiko Precision Inc Moving object detector, moving object detection method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000341679A (en) * 1999-06-01 2000-12-08 Secom Co Ltd Picture recognizing device and monitoring device
JP2002157598A (en) * 2000-11-16 2002-05-31 Japan Radio Co Ltd System for detecting invader
JP2003199099A (en) * 2001-12-27 2003-07-11 Canon Inc Apparatus and method for processing image as well as computer program and computer readable storage medium
JP2009211525A (en) * 2008-03-05 2009-09-17 Mitsubishi Electric Corp Object detector
JP2010044669A (en) * 2008-08-15 2010-02-25 Seiko Precision Inc Moving object detector, moving object detection method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10867378B2 (en) 2016-11-30 2020-12-15 Rakuten, Inc. Image processing device, image processing method, server, and computer program
JP2019008460A (en) * 2017-06-22 2019-01-17 株式会社東芝 Object detection device and object detection method and program

Also Published As

Publication number Publication date
JP6495696B2 (en) 2019-04-03

Similar Documents

Publication Publication Date Title
JP5726792B2 (en) Information processing apparatus, image sensor apparatus, and program
JP2016171526A (en) Image sensor, person detection method, control system, control method, and computer program
US11050936B2 (en) Systems and methods for automatic exposure in high dynamic range video capture systems
WO2019114191A1 (en) Internet of things-based building operation device status monitoring and visual analysis system
US9829955B2 (en) Information processing apparatus and method to control a target device based on detection of people in the vicinity of the target device
CN109842984A (en) Wisdom classroom lighting control system and wisdom classroom illuminate self-adaptation control method
CN105035887A (en) Intelligent elevator master control system based on computer visual inspection
JP6316102B2 (en) Adjustment terminal, adjustment method, and computer program
KR102314903B1 (en) Method And Apparatus for Controlling Building Based on Image
EP3888344B1 (en) Methods and systems for colorizing infrared images
JP6495696B2 (en) Image collecting apparatus, image collecting method, and computer program
JP7146416B2 (en) Information processing device, information processing system, information processing method, and program
JP2016179887A (en) Elevator in-car monitoring device
CN109844825B (en) Presence detection system and method
JP2014139745A (en) Equipment management system, equipment management device, equipment management method and program
WO2017119336A1 (en) Lighting control system, lighting control method, lighting control device, and computer program
JP2015018823A (en) Illumination control device, human detection sensor, and illumination control method
JP2022117761A (en) Sensor system, image sensor, server device, sensing method, and program
JP2015222641A (en) Lighting control system, image sensor, image sensor calibration method, and computer program
KR20200038189A (en) Information output device, detection system, control method and program
WO2020115791A1 (en) Equipment control device, equipment control method, and learning method
JP2020010145A (en) Information registration apparatus, information processing apparatus, method of controlling information registration apparatus, method of controlling information processing apparatus, system, and program
JP2020149407A (en) Monitoring system and monitoring method
KR20140080585A (en) System for controlling lighting using context based on light event
JP2019133265A (en) Use reservation system, use reservation apparatus, use reservation method and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170911

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170911

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190307

R150 Certificate of patent or registration of utility model

Ref document number: 6495696

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150