JP2016171499A - Image collection apparatus, image correction method and computer program - Google Patents
Image collection apparatus, image correction method and computer program Download PDFInfo
- Publication number
- JP2016171499A JP2016171499A JP2015050700A JP2015050700A JP2016171499A JP 2016171499 A JP2016171499 A JP 2016171499A JP 2015050700 A JP2015050700 A JP 2015050700A JP 2015050700 A JP2015050700 A JP 2015050700A JP 2016171499 A JP2016171499 A JP 2016171499A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- space
- unit
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明の実施形態は、画像収集装置、画像収集方法及びコンピュータプログラムに関する。 Embodiments described herein relate generally to an image collection apparatus, an image collection method, and a computer program.
画像から動体を検出する一般的な手法の一つとして、画像の輝度変化に基づいて動体を検出するフレーム間差分法がある。フレーム間差分法は、連続して取得される画像間の差分を取得し、変化があった領域の被写体を動体として検出する手法である。このような動体検出の結果に基づいて、人を検出する技術が提案されている。
しかしながら、オフィスなどにカメラを設置した場合、人の動きだけでなく、外光や照明による空間の明るさの変化によって画像の輝度変化が生じる場合がある。そのため、実際には人が存在しないにも関わらず、人を誤検出する可能性がある。この問題を解決するため、検出対象の空間の背景画像を予め記憶し、取得された画像と背景画像との比較により輝度変化のあった領域が背景か否かを識別する技術が提案されている。しかしながら、このような従来技術を、明るさが変化するオフィスなどの空間に適用する場合、基準となる背景画像を明るさの変化に応じて随時更新する必要がある。
One common method for detecting a moving object from an image is an inter-frame difference method for detecting a moving object based on a change in luminance of the image. The inter-frame difference method is a method of acquiring a difference between images acquired continuously and detecting a subject in a region where the change has occurred as a moving object. A technique for detecting a person based on the result of such moving object detection has been proposed.
However, when a camera is installed in an office or the like, the luminance of an image may change due to changes in the brightness of the space caused by external light or illumination as well as human movement. Therefore, there is a possibility that a person is erroneously detected even though no person actually exists. In order to solve this problem, a technique has been proposed in which a background image of a space to be detected is stored in advance, and whether or not an area having a luminance change is a background by comparing the acquired image with the background image. . However, when such a conventional technique is applied to a space such as an office where the brightness changes, it is necessary to update the reference background image as needed according to the change in the brightness.
しかしながら、明るさの変化に応じて適切な背景画像に随時更新することは技術的に困難である。そのため、背景画像の特徴を示す辞書情報に基づいて、動体が背景か否かを識別する手法が検討されている。明るさが異なる状況で撮像された背景画像に基づいて生成された辞書情報を用いれば、輝度の変化が明るさの変化によるものか否かを識別することが可能になる。 However, it is technically difficult to update to an appropriate background image as needed according to changes in brightness. Therefore, a method for identifying whether or not a moving object is a background based on dictionary information indicating characteristics of a background image has been studied. Using dictionary information generated based on background images captured in different brightness situations, it is possible to identify whether or not the change in brightness is due to a change in brightness.
辞書情報を用いた背景識別の精度は、辞書情報の質によって左右される。辞書情報の質とは、辞書情報がどれだけ多くのパターンの背景画像に基づいて生成されたかによって決まる。そのため、質の高い辞書情報の生成には、非常に多くの背景画像が必要となり、背景画像の収集に多くの労力を要する場合があった。 The accuracy of background identification using dictionary information depends on the quality of the dictionary information. The quality of the dictionary information depends on how many patterns of dictionary information are generated based on the background image of the pattern. Therefore, in order to generate high quality dictionary information, a very large number of background images are required, and a lot of labor may be required to collect the background images.
本発明が解決しようとする課題は、辞書情報の生成に必要な背景画像を効率良く収集することができる画像収集装置、画像収集方法及びコンピュータプログラムを提供することである。 The problem to be solved by the present invention is to provide an image collection apparatus, an image collection method, and a computer program that can efficiently collect background images necessary for generating dictionary information.
実施形態の画像収集装置は、画像記憶部と、撮像制御部と、属性付与部と、を持つ。画像記憶部は、人を検出する対象の空間が撮像された画像を記憶する。撮像制御部は、前記空間を撮像し前記空間の画像を取得する撮像部が前記空間を撮像するタイミングを制御する。属性付与部は、前記撮像部から前記空間の画像を取得し、取得した前記画像を、前記画像の取得に関する属性情報と対応づけて前記画像記憶部に記憶させる。 The image collection device according to the embodiment includes an image storage unit, an imaging control unit, and an attribute assigning unit. The image storage unit stores an image in which a space for detecting a person is captured. The imaging control unit controls the timing at which the imaging unit that images the space and acquires the image of the space images the space. The attribute assigning unit acquires the image of the space from the imaging unit, and stores the acquired image in the image storage unit in association with attribute information regarding acquisition of the image.
以下、実施形態の画像収集装置、画像収集方法及びコンピュータプログラムを、図面を参照して説明する。 Hereinafter, an image collection device, an image collection method, and a computer program according to embodiments will be described with reference to the drawings.
(第1の実施形態)
図1は、画像センサ1の利用例を示す図である。
図1は、画像センサ1が、オフィスフロアの機器の制御に用いられた例を示す。図1の例の場合、照明機器20及び空調機器30が制御対象の機器である。画像センサ1は、オフィスフロアの天井10に設置され、オフィスフロアを撮像する。画像センサ1は、撮像した画像から環境情報や人物情報を取得する。環境情報は、撮像対象の空間(以下、「対象空間」という。)の環境に関する情報である。例えば、環境情報は、オフィスの照度や温度などを示す情報である。人物情報は、対象空間における人に関する情報である。例えば、人物情報は、人の在又は不在や人数、人の行動、人の活動量などを示す情報である。人物情報を取得するため、画像センサ1は、取得した画像を解析して人を検出する。画像センサ1は、取得した環境情報や人物情報を、照明機器20及び空調機器30を制御する制御装置に送信する。制御装置は、画像センサ1によって取得された環境情報や人物情報に基づいて、照明機器20及び空調機器30を制御するための制御情報を生成する。制御装置は、生成した制御情報を照明機器20及び空調機器30に送信する。照明機器20及び空調機器30が、制御装置から送信された制御情報に基づいて自装置を動作させる。このような制御によって、環境情報や人物情報に基づく機器の制御が実現される。
(First embodiment)
FIG. 1 is a diagram illustrating a usage example of the
FIG. 1 shows an example in which the
例えば、人物情報として人の在又は不在を示す情報が取得される場合、制御装置は、人が居るエリアでは空調及び照明をONにし、人が居ないエリアでは空調及び照明をOFFにする、又は出力を下げるように空調及び照明を制御することができる。また、人が存在する場合には、タスク照明をONにするような制御も考えられる。また、デスクや通路など、人が検出された場所に応じてアンビエント照明の調光率を変化させるような制御も考えられる。 For example, when information indicating the presence or absence of a person is acquired as person information, the control device turns on air conditioning and lighting in an area where there is a person, and turns off air conditioning and lighting in an area where there is no person, or Air conditioning and lighting can be controlled to reduce output. In addition, when there is a person, control that turns on task lighting is also conceivable. In addition, control such as changing the dimming rate of the ambient lighting according to a place where a person is detected, such as a desk or a passage, can be considered.
また、例えば、人物情報として人の活動量を示す情報が取得される場合、制御装置は、活動量が小さい場合にはデスクワークをしている人が多いと判断して空調の出力を弱め、活動量が大きい場合には人が活発に活動していると判断して空調の出力を強めるように空調を制御することができる。また、例えば、人物情報として人の分布を示す情報が取得される場合、人の分布に応じてフロア内の照明の調光率を変化させるように照明を制御することができる。 Also, for example, when information indicating the amount of activity of a person is acquired as personal information, the control device determines that there are many people who are doing desk work when the amount of activity is small, and reduces the output of air conditioning. When the amount is large, it can be determined that the person is actively active and the air conditioning can be controlled to increase the output of the air conditioning. Further, for example, when information indicating a person distribution is acquired as the person information, the lighting can be controlled so as to change the dimming rate of the lighting in the floor according to the person distribution.
上記のように画像センサを用いて人物情報を取得する場合、画像から人を検出することが必要となる。従来、フレーム間差分法により抽出された領域の画像と、予め取得された背景画像とを比較することにより画像から人を検出する技術が提案されている。しかしながら、検出対象の明るさが変化するオフィスなどの空間である場合、照明のON又はOFFや、外光の入射等の影響により背景画像が大きく変化する。そのため、このような空間に従来技術を適用しようとした場合、検出対象の空間の明るさの変化に応じて背景画像を随時更新する必要があり、技術的な困難を伴う。そこで、背景画像の特徴を示す辞書情報に基づいて、動体が背景か否かを識別する手法が検討されている。明るさが異なる状況で撮像された背景画像に基づいて生成された辞書情報を用いれば、輝度の変化が明るさの変化によるものか否かを識別することが可能になる。 When acquiring person information using an image sensor as described above, it is necessary to detect a person from an image. Conventionally, there has been proposed a technique for detecting a person from an image by comparing an image of a region extracted by an inter-frame difference method with a background image acquired in advance. However, in a space such as an office where the brightness of the detection target changes, the background image changes greatly due to the influence of lighting ON or OFF, the incidence of external light, and the like. Therefore, when it is attempted to apply the conventional technique to such a space, it is necessary to update the background image as needed according to the change in the brightness of the space to be detected, which is technically difficult. Therefore, a method for identifying whether or not a moving object is a background based on dictionary information indicating the characteristics of a background image has been studied. Using dictionary information generated based on background images captured in different brightness situations, it is possible to identify whether or not the change in brightness is due to a change in brightness.
辞書情報を用いた背景識別の精度は、辞書情報の質によって左右される。辞書情報の質とは、辞書情報がどれだけ多くのパターンの背景画像に基づいて生成されたかによって決まる。そのため、質の高い辞書情報の生成には、非常に多くの背景画像が必要となり、背景画像の収集に多くの労力を要する場合があった。そのため、実施形態の機器制御システムは、所定の条件に基づいて背景画像の収集を制御する調整用端末を備える。 The accuracy of background identification using dictionary information depends on the quality of the dictionary information. The quality of the dictionary information depends on how many patterns of dictionary information are generated based on the background image of the pattern. Therefore, in order to generate high quality dictionary information, a very large number of background images are required, and a lot of labor may be required to collect the background images. Therefore, the device control system of the embodiment includes an adjustment terminal that controls collection of background images based on a predetermined condition.
図2は、第1の実施形態の調整用端末7を備える機器制御システムの構成を示すシステム構成図である。
図2の機器制御システムは、複数の画像センサ1−1〜1−3を備える。画像センサ1−1〜1−3は、画像から取得した人物情報や環境情報(以下、「検知情報」という。)をネットワークハブ2を介して、ゲートウェイサーバ3に送信する。ゲートウェイサーバ3は、各画像センサ1から送信された人物情報や環境情報を、BEMS(Building Energy Management System)4や機器制御装置5、可視化装置6、調整用端末7などに送信する。
FIG. 2 is a system configuration diagram illustrating a configuration of a device control system including the
The device control system of FIG. 2 includes a plurality of image sensors 1-1 to 1-3. The image sensors 1-1 to 1-3 transmit personal information and environment information (hereinafter referred to as “detection information”) acquired from the images to the
BEMS4は、センサなどから建物の使用エネルギーや室内環境を示す情報を取得し、これを省エネルギーに役立てるための分析や診断を行う。
The
機器制御装置5は、検知情報に基づいて、制御対象の機器を最適に制御するための制御情報を生成する。機器制御装置5は、生成した制御情報を送信することで、制御対象の機器を制御する。機器制御装置5の制御対象となる機器は、例えば、空調機器や、照明機器、エレベータなどの機器である。
The
可視化装置6は、機器制御システムの情報を可視化する装置である。例えば、可視化装置6は、BEMS4による分析や診断の結果を取得して、建物の使用エネルギーや室内環境などを可視化する。
The
調整用端末7(画像収集装置)は、画像センサ1と通信し、画像センサ1の各種設定や調整を行うための調整プログラムがインストールされた端末である。例えば、調整用端末7は、PC(Personal Computer)やスマートフォン、タブレットなどの情報端末である。なお、調整プログラムは、画像センサ1と通信可能であれば、調整用端末7以外の他の装置にインストールされてもよい。
The adjustment terminal 7 (image collection device) is a terminal that communicates with the
ネットワークハブ2及び調整用端末7は機器ネットワーク40に接続され、BEMS4、機器制御装置5及び可視化装置6は制御ネットワーク50に接続される。例えば、制御ネットワーク50はEthernet(登録商標)などのネットワークであり、制御ネットワーク50は、BACnetIPネットワークである。機器ネットワーク40に接続された装置と、制御ネットワーク50に接続された装置との通信は、ゲートウェイサーバ3のプロトコル変換により中継される。
The
なお、機器ネットワーク40及び制御ネットワーク50は、各ネットワーク間の通信が可能であれば、上記と異なるネットワークであってもよい。例えば、機器ネットワーク40及び制御ネットワーク50は、特定用途に規格化された産業用Ethernet(登録商標)などのネットワークであってもよいし、独自プロトコルのネットワークであってもよい。また、機器ネットワーク40及び制御ネットワーク50は、同一のネットワークであってもよい。
The
図3は、画像センサ1の機能構成を示す機能ブロック図である。
画像センサ1は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、画像センサプログラムを実行する。画像センサ1は、画像センサプログラムの実行によって通信部11、撮像部12、画像記憶部13、辞書情報記憶部14、動体検出部15、動体判定部16及び人判定部17を備える装置として機能する。なお、画像センサ1の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。画像センサプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。画像センサプログラムは、電気通信回線を介して送信されてもよい。
FIG. 3 is a functional block diagram showing a functional configuration of the
The
通信部11は、自装置をネットワークハブ2に接続するための通信インターフェースを用いて構成される。通信部11は、ネットワークハブ2を介して、機器ネットワーク40及び制御ネットワーク50に接続された各種装置と通信する。
The
撮像部12は、カメラ等の撮像装置を用いて構成される。撮像部12は、制御対象の機器についての検知情報が取得可能な位置及び向きに設置される。撮像部12は、設置位置と向きに応じた空間を撮像し、画像データを取得する。撮像部12は、取得した画像データを画像記憶部13に保存する。
The
画像記憶部13及び辞書情報記憶部14は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。画像記憶部13は、撮像部12によって取得された画像データを記憶する。辞書情報記憶部14は、動体判定に用いられる辞書情報を記憶する。辞書情報とは、背景画像から抽出された特徴量と、背景の各種特徴との対応を示す情報である。辞書情報は、予め撮像された画像(以下、「事前画像」という。)に基づいて生成され、予め辞書情報記憶部14に記憶される。以下、この辞書情報の生成及び記憶を学習と呼ぶ。
The
動体検出部15は、検出対象の空間が撮像された複数の画像に基づいて、動体と推定される動体候補を検出する。動体候補を検出する手法には、フレーム間差分、オプティカルフロー、テンプレートマッチングなどを用いることができる。
The moving
動体判定部16は、辞書情報に基づいて、動体検出部15によって検出された動体候補が動体であるか否かを判定する。具体的には、動体判定部16は、辞書情報が示す背景画像の特徴に基づいて、動体候補が背景であるか否かを判定する。動体判定部16は、動体候補が背景でないと判定された場合に、動体候補は動体であると判定する。動体候補が背景であるか否かを判定する手法には、ニューラルネットワーク、SVM(Support Vector Machine)、k近傍識別器、ベイズ分類などを用いることができる。
The moving
人判定部17(人検出部)は、動体判定部によって判定された動体が人であるか否かを判定する。 The person determination unit 17 (person detection unit) determines whether or not the moving object determined by the moving object determination unit is a person.
図4は、画像センサ1が画像から人を検出する処理の流れを示すフローチャートである。
まず、撮像部12が検出対象の空間を撮像して画像データを取得する(ステップS101)。撮像部12は、取得した画像データと、画像データを取得したタイミングを示す情報とを対応づけて画像記憶部13に保存する。
FIG. 4 is a flowchart showing a flow of processing in which the
First, the
動体検出部15は、画像記憶部13から画像データを取得する。このとき、動体検出部15は、取得されたタイミングの順に画像データを取得する。動体検出部15は、取得した画像データに基づいて、動体候補を検出する(ステップS102)。例えば、動体検出部15は、取得した画像のフレーム間差分に基づいて動体候補を検出する。そして、動体検出部15は、動体候補が検出された領域(以下、「動体候補領域」という。)を示す情報を動体判定部16に出力する(ステップS103)。
The moving
動体判定部16は、動体検出部15から出力された動体候補領域の画像の特徴量を算出する。ここで抽出する特徴量には、特許文献2に記載された累積差分などの輝度変化に関する特徴量や、特許文献3に記載されたCoHOG(Co-occurrence Histograms of Oriented Gradients)などの輝度分布に関する特徴量が用いられてもよい。動体判定部16は、算出した特徴量と辞書情報とに基づいて、動体候補領域の画像と背景画像との類似度を算出する(ステップS104)。動体判定部16は、算出した類似度に基づいて、動体候補が動体であるか否かを判定する。動体候補が動体であると判定された場合、動体判定部16は、動体候補領域を、動体が検出された領域(以下、「動体領域」という。)とし、動体領域を示す情報を人判定部17に出力する(ステップS105)。
The moving
人判定部17は、動体判定部16から出力された動体領域の画像に基づいて、動体が人であるか否かを判定する(ステップS106)。
The
なお、特徴量の抽出や、背景と動体との識別処理は、各画素を単位として行われてもよいし、画像から抽出される領域を単位として行われてもよい。この場合、特徴量の抽出や識別処理は、外接矩形など、抽出された領域を包含する領域を単位として行われてもよい。 It should be noted that feature amount extraction and background / moving object identification processing may be performed in units of pixels, or may be performed in units of regions extracted from an image. In this case, feature amount extraction and identification processing may be performed in units of regions including the extracted regions, such as circumscribed rectangles.
図5は、第1の実施形態の調整用端末7の機能構成を示す機能ブロック図である。
調整用端末7は、バスで接続されたCPUやメモリや補助記憶装置などを備え、調整プログラムを実行する。調整用端末は、調整プログラムの実行によって通信部71、記憶部72、画像データ取得部73、属性付与部74及び撮像制御部75を備える装置として機能する。なお、調整用端末7の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。調整プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。調整プログラムは、電気通信回線を介して送信されてもよい。
FIG. 5 is a functional block diagram illustrating a functional configuration of the
The
通信部71は、自装置を機器ネットワーク40に接続するための通信インターフェースを用いて構成される。通信部71は、ネットワークハブ2又はゲートウェイサーバ3を介して、機器ネットワーク40及び制御ネットワーク50に接続された各種装置と通信する。
The
記憶部72は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成され、画像情報を記憶する。画像情報は、撮像部12により取得された画像データと、その画像データの取得に関する属性情報とが対応付けられた情報である。画像情報は、属性付与部74が画像データに属性情報を付与することによって対応づけられる。
The
画像データ取得部73は、画像センサ1に対する背景画像の撮像指示がなされたことの通知(以下、「撮像指示通知」という。)を受け、画像センサ1から背景画像を取得する。この通知は、撮像制御部75によって行われる。画像データ取得部73は、取得した画像データを記憶部72に保存する。
The image
属性付与部74は、撮像制御部75から撮像指示通知を受け、その撮像指示に基づいて(すなわち、撮像部12の撮像に同期して)、取得された画像データに付与する属性情報を取得する。具体的には、属性情報は、背景画像の撮像動作に関する撮像部12の設定を示す撮像設定情報、又は撮像対象の空間の撮像時の状態に関する情報を示す空間状態情報である。例えば、撮像設定情報は、シャッタースピードやゲイン、ホワイトバランス等のカメラパラメータである。また、空間状態情報は、上記の人物情報や環境情報、人物情報又は環境情報の取得において生成された中間データなどの情報である。属性付与部74は、これらの属性情報を画像センサ1から取得する。属性付与部74は、記憶部72に記憶された背景画像の画像データに、取得した属性情報を対応付けて画像情報を生成する。属性付与部74は、生成した画像情報を記憶部72に保存する。
The
撮像制御部75は、画像センサ1に背景画像の撮像を指示する。例えば、撮像制御部75は、他の装置から送信される指示や、キーボードやマウスなどの入力装置からの入力される指示に応じて、画像センサ1に背景画像の撮像指示を行う。撮像制御部75は、画像センサ1に撮像指示を行ったことを、撮像指示通知によって画像データ取得部73及び属性付与部74に通知する。
The
このように構成された第1の実施形態の調整用端末7は、画像センサ1に背景画像の取得を指示するとともに、指示に応じて撮像された背景画像を画像センサ1から取得する。そして、調整用端末7は、取得した背景画像に属性情報を付与して蓄積する。このような機能を備えることにより、調整用端末7は、画像センサ1が用いる辞書情報の生成に必要な大量の事前画像の収集にかかる労力を削減することができる。また、このように、背景画像と、属性情報とが対応づけて取得されることによって、辞書情報の生成に必要な情報をまとめて取得することができる。
The
(第2の実施形態)
背景画像を収集するタイミングは、背景画像が変化する要因となりうる人が不在であるタイミングが望ましい。そのため、例えばビルなどの背景画像を収集する場合、人が入居する前の調整時に行われるのが一般的である。しかしながら、大規模ビルであれば数千台の画像センサが設置される場合もあり、調整員が各画像センサに対して、それぞれ画像取得の指示をしていると作業効率が低下する。そのため、第2の実施形態の調整用端末7aは、背景画像の取得に関して予め設定された条件に基づいて、背景画像を自動的に収集する構成を備える。
(Second Embodiment)
The timing at which the background image is collected is preferably a timing at which there is no person who can cause the background image to change. For this reason, for example, when collecting a background image of a building or the like, it is generally performed at the time of adjustment before a person moves in. However, in the case of a large-scale building, thousands of image sensors may be installed, and if the coordinator instructs each image sensor to acquire an image, the work efficiency decreases. Therefore, the
図6は、第2の実施形態の調整用端末7aの機能構成を示す機能ブロック図である。
第2の実施形態の調整用端末7aは、記憶部72に代えて記憶部72aを備える点、撮像制御部75に代えて撮像制御部75aを備える点で第1の実施形態の調整用端末7と異なる。他の機能部は、調整用端末7と同様である。そのため、図6では、記憶部72a及び撮像制御部75a以外の機能部については、図5と同様の符号を付すことにより説明を省略する。
FIG. 6 is a functional block diagram illustrating a functional configuration of the
The
記憶部72aは、画像情報に加えて、背景画像の撮像に関する条件を示す撮像条件情報(取得条件情報)を記憶する点で第1の実施形態における記憶部72と異なる。例えば、撮像条件情報は、画像収集の開始時刻、画像収集に要する所要時間、対象とする画像センサ1などを示す情報である。
撮像制御部75aは、撮像条件情報に基づいて、画像センサ1に背景画像の撮像を行わせるタイミングを制御する。
The
The
このように構成された第2の実施形態の調整用端末7aは、予め設定された撮像条件に基づいて画像センサ1を制御することで、背景画像の収集を自動的に実行することができる。そのため、大量の背景画像の収集作業を効率化することが出来る。
The
なお、上記の撮像条件情報の設定は、どのような態様で行われてもよい。例えば、撮像制御部75aは、撮像条件情報を含むファイルを他の装置や記憶媒体から取得してもよい。また、撮像制御部75aは、撮像条件を入力する設定画面を自装置の表示部に表示させ、ユーザの入力に基づいて撮像条件情報を生成してもよい。また、設定画面は、背景画像の収集に関する指示をユーザが直接入力可能なように構成されてもよい。
Note that the above-described setting of the imaging condition information may be performed in any manner. For example, the
調整用端末7aがこのような機能を備えることにより、ユーザは、画像センサ1を用いた背景画像の収集作業を遠隔制御することも可能となる。例えば、ユーザは、対象の画像センサ1を目視で確認しつつ、背景画像の撮像指示を行うことが可能となる。
When the
(第3の実施形態)
画像センサ1による動体と背景との識別の精度は、識別に用いられる辞書情報の質に左右される。そのため、動体と背景とを精度良く識別するためには、質の高い辞書情報が必要である。辞書情報の質は、辞書情報がどれだけ多くのパターンの背景画像に基づいて生成されているかによって決まる。そのため、背景画像に対する明るさの影響を考慮する場合、質の高い辞書情報を生成するには、明るさの異なる状況で撮像された背景画像が必要になる。しかしながら、このような撮像条件で背景画像を取得するのには多くの労力がかかる。そのため、第3の実施形態の調整用端末7bは、照明機器など空間の明るさに影響を与える機器を制御して、撮像対象の空間を撮像条件に応じた状態に変化させる構成を備える。
(Third embodiment)
The accuracy of identifying the moving object and the background by the
図7は、第3の実施形態の調整用端末7bの機能構成を示す機能ブロック図である。
第3の実施形態の調整用端末7bは、記憶部72aに代えて記憶部72bを備える点、撮像制御部75aに代えて撮像制御部75bを備える点、状態取得部76及び制御信号生成部77をさらに備える点で第2の実施形態の調整用端末7aと異なる。他の機能部は、調整用端末7aと同様である。そのため、図7では、記憶部72b、撮像制御部75b、状態取得部76及び制御信号生成部77以外の機能部については、図6と同様の符号を付すことにより説明を省略する。
FIG. 7 is a functional block diagram illustrating a functional configuration of the
The
記憶部72bは、画像情報及び撮像条件情報に加え、検出対象の空間に関する各種設備の状態を示す設備状態情報を記憶する。
In addition to the image information and the imaging condition information, the
状態取得部76(設備状態取得部)は、設備状態情報を定期的に取得して記憶部72bに保存する。例えば、状態取得部76は、BEMS40から設備状態情報を取得する。
The state acquisition unit 76 (equipment state acquisition unit) periodically acquires the equipment state information and stores it in the
撮像制御部75bは、撮像条件情報に基づいて、画像センサ1による背景画像の撮像を制御する。なお、本実施形態の撮像条件情報は、背景画像を取得する際の各設備の状態(以下、「撮像時状態」という。)に関する条件を含む。撮像制御部75bは、撮像条件情報に基づいて各設備の撮像時状態を決定する。撮像制御部75bは、決定した各設備の撮像時状態を制御信号生成部77に通知することで、撮像対象の空間を撮像条件に応じた状態に変化させる。撮像制御部75bは、設備状態情報に基づいて各設備の現在の状態を判断し、各設備の状態が撮像時状態となったタイミングで画像センサ1に背景画像の撮像を指示する。
The imaging control unit 75b controls imaging of the background image by the
制御信号生成部77(機器制御部)は、検出対象の空間に関する各設備の動作を制御する制御信号を生成する。具体的には、制御信号生成部77は、撮像制御部75bから制御対象の設備の撮像時状態を取得し、各設備の状態を撮像時状態に変更する制御信号を生成する。制御信号生成部77は、生成した制御信号を制御対象の各設備に送信する。
The control signal generation unit 77 (device control unit) generates a control signal for controlling the operation of each facility related to the space to be detected. Specifically, the control
以下、撮像対象の空間に関する各種設備の制御について、タスク照明及びアンビエント照明の制御を例に説明する。 Hereinafter, control of various facilities related to the space to be imaged will be described using control of task illumination and ambient illumination as an example.
図8は、タスク照明及びアンビエント照明の具体例を示す図である。
ビルの照明機器には、例えば、天井に設置されたアンビエント照明と、作業者が必要に応じて机上に設置するタスク照明とがある。タスク照明は、視作業用の照度を確保するための照明機器であり、アンビエント照明は、視作業が行われる領域全体の照度を確保するための照明機器である。これらのアンビエント照明及びタスク照明の制御は「タスク・アンビエント制御」と呼ばれる。タスク・アンビエント制御は、制御対象の空間を、人が存在する空間であるタスク領域と、それ以外の空間であるアンビエント領域とに分けて、異なる照明機器を異なる条件で制御する方法である。タスク・アンビエント制御では、タスク領域には必要な照度を与え、その他の周辺領域には、これより低い照度を与えるのが一般的である。
FIG. 8 is a diagram illustrating specific examples of task lighting and ambient lighting.
Building lighting equipment includes, for example, ambient lighting installed on the ceiling and task lighting installed on a desk by an operator as needed. The task lighting is a lighting device for securing the illuminance for visual work, and the ambient lighting is the lighting device for securing the illuminance of the entire region where the visual work is performed. Control of these ambient lighting and task lighting is called “task / ambient control”. Task / ambient control is a method of controlling different lighting devices under different conditions by dividing a space to be controlled into a task region in which a person exists and an ambient region in other spaces. In the task / ambient control, a necessary illuminance is generally given to the task area and a lower illuminance is given to the other peripheral areas.
図8の例の場合、人の在又は不在を検知するセンサ100の検知結果に応じて、照明機器のタスク・アンビエント制御が行われる。符号101−1〜101−4が示す天井に設置された照明機器がアンビエント照明であり、符号102−1及び102−2が示す各机に設置された照明機器がタスク照明である。例えば、この場合、作業中の人がいる机のタスク照明102−1は、作業に必要な照度が確保されるように制御され、人がいない机のタスク照明102−2は消灯される。また、アンビエント照明101−1〜101−4は、周辺環境の明るさが確保されるように制御される。一般に、アンビエント照明は、タスク照明の1/2〜1/3の照度となるように制御される。
In the case of the example of FIG. 8, task / ambient control of the lighting device is performed according to the detection result of the
図9は、タスク・アンビエント制御の具体例を示す図である。
図9は、オフィスのレイアウトを示す図である。図9のオフィス天井には、アンビエント照明200−1〜200−4が設置されており、フロアには机201−1〜201−8が設置されている。この場合、画像センサ1によって、例えば、机201−3及び201−6に人がいることが判定された場合、タスク・アンビエント制御によって、机201−3及び201−6のタスク照明と、アンビエント照明200−2及び200−3が点灯される。
FIG. 9 is a diagram illustrating a specific example of task / ambient control.
FIG. 9 is a diagram showing an office layout. Ambient lights 200-1 to 200-4 are installed on the office ceiling of FIG. 9, and desks 201-1 to 201-8 are installed on the floor. In this case, for example, when it is determined by the
このようなタスク・アンビエント制御が行われる環境では、点灯する照明の箇所、点灯する照明の数、それぞれの照明の調光率などの影響により背景画像の映り方が大きく異なってくる。そのため、調整用端末7bは、タスク・アンビエント制御において発生しうる照明機器の状態(以下、「制御パターン」という。)を実現するように照明機器を制御した上で画像センサ1に背景画像を取得させる。例えば、調整用端末7bは、図9のように一部の照明機器が点灯した状態や、全ての照明機器が点灯した状態を実現して、それぞれの状態で撮像された背景画像を取得する。また、撮像対象の空間に複数の画像センサ1が設置される場合、調整用端末7bは、各画像センサ1に対応する設備で制御パターンを実現してもよいし、隣接する複数の画像センサ1に対応する設備で制御パターンを実現してもよい。各制御パターンにおける各機器の状態は予め撮像条件情報に設定されており、制御信号生成部77によって各制御パターンが実現される。
In an environment in which such task / ambient control is performed, the manner in which the background image is projected varies greatly depending on the location of the lighting to be turned on, the number of lights to be turned on, the dimming rate of each lighting, and the like. Therefore, the
このように構成された第3の実施形態の調整用端末7bは、撮像対象の空間の明るさに関する設備を撮像条件情報が示す状態となるように制御した後、画像センサ1に背景画像の取得を指示する。調整用端末7bがこのような機能を持つことによって、背景画像の収集をより柔軟に制御することが可能となり、背景画像の収集作業をより効率的に行うことが可能となる。
The
なお、撮像対象の空間の明るさの強度が強すぎる場合、取得される背景画像において白とびや黒潰れなどの撮像不良が発生する可能性がある。そのため、調整用端末7bは、撮像不良が発生した場合には、必要に応じて背景画像の再取得を行うように構成されてもよい。この場合、例えば、画像データ取得部73は、取得した画像データに撮像不良が発生していないかを確認する。撮像不良が発生している場合、画像データ取得部73は、撮像制御部75bに、撮像不良が発生した画像データを通知する。撮像制御部75bは、通知された画像データの撮像設定情報に基づいて、撮像不良が抑制されるようなカメラパラメータを算出する。撮像制御部75bは、算出したカメラパラメータを画像センサ1に送信するとともに、背景画像の再取得を指示する。
Note that if the brightness intensity of the space to be imaged is too strong, there is a possibility that an imaging failure such as overexposure or blackout may occur in the acquired background image. Therefore, the
以下、第3の実施形態の調整用端末7bの変形例について説明する。
Hereinafter, modifications of the
動体と背景との識別を精度良く行うためには、照明による明るさの影響に加え、外光による明るさの影響を考慮する必要がある。そのため、質の高い辞書情報の生成には、外光が入射している状態で撮像された背景画像が必要になる。そのため、調整用端末7bは、太陽の位置と天候とに応じてブラインドを制御することで、外光が入射する状況を作り出すことが可能な構成を備えてもよい。
In order to accurately identify the moving object and the background, it is necessary to consider the effect of brightness due to external light in addition to the effect of brightness due to illumination. Therefore, in order to generate high-quality dictionary information, a background image captured in a state where external light is incident is necessary. Therefore, the
この場合、撮像条件情報は、撮像対象の空間におけるブラインドの状態に関する条件を示す。例えば、撮像条件情報は、太陽の位置や天候に応じて、ブラインドをどの程度開くかの条件を示す。撮像制御部75bは、その日の天候を示す天候情報を外部のシステムや装置から取得する。また、撮像制御部75bは、撮像対象の空間の位置や高さなどの位置情報と、太陽位置の予測モデルとに基づいて、撮像対象の空間から観察した任意の日時における太陽の位置を算出する。そして、撮像制御部75bは、算出した太陽の位置情報と取得した天候情報とに基づいて、ブラインド装置の撮像時状態を決定する。撮像制御部75bは、決定したブラインドの撮像時状態を制御信号生成部77に通知することで、ブラインドの状態を撮像時状態に変更させる。
In this case, the imaging condition information indicates a condition relating to a blind state in the imaging target space. For example, the imaging condition information indicates how much the blind is to be opened according to the position of the sun and the weather. The imaging control unit 75b acquires weather information indicating the weather of the day from an external system or device. In addition, the imaging control unit 75b calculates the position of the sun at an arbitrary date and time observed from the imaging target space, based on position information such as the position and height of the imaging target space and the prediction model of the sun position. . Then, the imaging control unit 75b determines the imaging state of the blind device based on the calculated sun position information and the acquired weather information. The imaging control unit 75b notifies the control
例えば、ビル内の空間が撮像対象の空間である場合、撮像制御部75bは、その時点での太陽位置と当日の天候とに基づいて、ビルにおいて太陽光が当たっている場所を推定し、太陽光が当たっている場所のブラインドを開くように制御信号生成部77に指示する。撮像制御部75bは、ブラインドが開かれた後に、画像センサ1に背景画像の取得を指示する。
For example, when the space in the building is a space to be imaged, the imaging control unit 75b estimates the location where sunlight hits the building based on the sun position at that time and the weather of the day, The control
このような機能を備えることにより、調整用端末7bは、太陽の位置と当日の天候とに基づいて太陽位置を算出し、太陽位置に応じた場所のブラインド装置を制御して、太陽光が入射する状態の背景画像を取得する。このような機能を備えることにより、調整用端末7bは、太陽光が入射した状況における背景画像の取得を効率良く行うことができる。
By providing such a function, the
なお、この場合、撮像制御部75bは、太陽光の入射角度に応じて、ブラインドの開閉量や、開閉角度を変更してもよい。このような制御を行うことにより、調整用端末7bは、様々なパターンで外光が入射する状況で撮像された背景画像を取得することができる。
In this case, the imaging control unit 75b may change the blind opening / closing amount and the opening / closing angle according to the incident angle of sunlight. By performing such control, the
なお、このような制御は、明るさによって異なるパターンで撮像される背景画像をより多く取得することである。そのため、天候情報や太陽の位置情報に基づいてどのようにブラインドを制御するかは、任意の基準によって定められてよい。上記では空間に外光が入射する状況を作り出すためにブラインドを開ける制御を行う例を示したが、例えば、これとは逆に、外光が入射しない状況を作り出すためにブラインドを閉じる制御が行われてもよい。また、外光があまりない状況であってもブラインドを開放する制御が行われてもよい。 Note that such control is to acquire more background images captured in different patterns depending on brightness. Therefore, how to control the blind based on the weather information and the sun position information may be determined by an arbitrary standard. In the above example, the blind opening control is performed to create a situation in which external light is incident on the space. For example, on the contrary, the blind closing control is performed to create a situation in which no external light is incident. It may be broken. Further, control for opening the blinds may be performed even in a situation where there is not much external light.
また、撮像制御部75bは、撮像条件や太陽位置、当日や週間の天候などに基づいて、背景画像を取得するスケジュールを生成し、生成したスケジュールに基づいてブラインド装置を制御して背景画像を取得するように構成されてもよい。このような制御を行うことにより、調整用端末7bは、ビルの現地調整などの時間の制約がある状況において、効率的に背景画像を収集することができる。
In addition, the imaging control unit 75b generates a schedule for acquiring a background image based on imaging conditions, the sun position, the weather of the day or week, and acquires the background image by controlling the blind device based on the generated schedule. It may be configured to. By performing such control, the
(第4の実施形態)
上述したとおり、質の高い辞書情報の生成には、様々な条件下で撮像された背景画像が必要となる。しかしながら、このような背景画像を取得できる時間には制約があることも多い。例えば、ビルの工事中に行う現地調整では、他の工事との兼ね合いで十分な時間が確保できない可能性がある。また、ビルの完成後、人が入居した後では、このような調整時間を十分に確保することはより困難となる。そのため、第4の実施形態の調整用端末7cは、背景画像の取得に関する優先度を決定し、優先度に基づいて背景画像を収集する構成を備える。
(Fourth embodiment)
As described above, the generation of high-quality dictionary information requires a background image captured under various conditions. However, there are many restrictions on the time for acquiring such a background image. For example, in the local adjustment performed during the construction of a building, there is a possibility that sufficient time cannot be secured due to the balance with other construction. In addition, after the building is completed, it is more difficult to secure sufficient adjustment time after a person moves in. For this reason, the
図10は、第4の実施形態の調整用端末7cの機能構成を示す機能ブロック図である。
第4の実施形態の調整用端末7cは、撮像制御部75bに変えて撮像制御部75cを備える点で、第3の実施形態の調整用端末7bと異なる。他の機能部は、調整用端末7bと同様である。そのため、図10では、撮像制御部75c以外の機能部については、図7と同様の符号を付すことにより説明を省略する。
FIG. 10 is a functional block diagram illustrating a functional configuration of the
The
図11は、撮像制御部75cの機能構成の詳細を示す機能ブロック図である。
撮像制御部75cは、所要時間算出部751及び優先度決定部752を備える。
所要時間算出部751は、撮像条件情報に基づいて、各撮像条件における背景画像の収集に要する所要時間を算出する。例えば、所要時間算出部751は、背景画像を取得する対象となる画像センサ1の台数と、1台の画像センサ1による背景画像の取得に要する時間とに基づいて、所定数の背景画像の取得に要する所要時間を算出する。また、例えば、所要時間算出部751は、制御信号生成部77の制御対象となる各設備の台数や、制御信号の送受信に要する時間、各制御に要する時間等に基づいて、各設備の制御に必要となる時間を算出してもよい。所要時間算出部751は、このような各所要時間を算出することにより、各撮像条件における背景画像の収集に要する所要時間を算出する。所要時間算出部751は、算出した各撮像条件における所要時間を示す情報を優先度決定部752に出力する。
FIG. 11 is a functional block diagram illustrating details of the functional configuration of the
The
The required
優先度決定部752は、所要時間算出部751から各撮像条件の背景画像収集における所要時間を示す情報を取得する。優先度決定部752は、取得した各撮像条件の所要時間に基づいて、各撮像条件の優先度を決定する。例えば、優先度決定部752は、制限時間内に取得可能な撮像条件について優先度を高く設定し、制限時間を超える撮像条件について優先度を低く設定する。また、例えば、優先度決定部752は、各設備の状態変更に要する所要時間が短い撮像条件について優先度を高く設定し、各設備の状態変更に要する所要時間が長い撮像条件について優先度を低く設定してもよい。また、例えば、優先度決定部752は、各撮像条件の所要時間が短い順に優先度を高く設定してもよい。
The
このように構成された第4の実施形態の調整用端末7cは、各撮像条件での背景画像の取得に要する各種の所要時間に基づいて、背景画像を取得する際の優先度を決定し、決定した優先度の順に背景画像を収集する。このような機能を備えることによって、調整用端末7cは、様々な条件下での背景画像の撮像を効率良く行うことができる。
The
以上説明した少なくともひとつの実施形態によれば、人を検出する対象の空間が撮像された画像を記憶する画像記憶部と、前記空間を撮像し前記空間の画像を取得する撮像部が前記空間を撮像するタイミングを制御する撮像制御部と、前記撮像部から前記空間の画像を取得し、取得した前記画像を、前記画像の取得に関する属性情報と対応づけて前記画像記憶部に記憶させる属性付与部と、を持つことにより、辞書情報の生成に必要な背景画像を効率良く収集することができる。 According to at least one embodiment described above, an image storage unit that stores an image in which a space for detecting a person is captured, and an imaging unit that captures the space and obtains an image of the space are stored in the space. An imaging control unit that controls the timing of imaging, and an attribute adding unit that acquires an image of the space from the imaging unit, and stores the acquired image in the image storage unit in association with attribute information related to the acquisition of the image , It is possible to efficiently collect background images necessary for generating dictionary information.
以下、上記の実施形態の調整用端末の変形例について説明する。 Hereinafter, modifications of the adjustment terminal according to the above embodiment will be described.
背景画像の撮像条件には、撮像対象の空間の場所に応じて異なる条件が設定されてもよい。例えば、ビルにおいて、執務室と廊下、エレベータホールなどの場所に応じた撮像条件が設定されてもよい。 Different conditions may be set as the background image capturing condition depending on the location of the space to be imaged. For example, in a building, imaging conditions may be set according to places such as office rooms, hallways, and elevator halls.
また、画像センサに必要な辞書情報は、撮像対象の空間の使用用途、レイアウト、求められる検出精度などに応じて異なる場合がある。例えば、執務室と比較して、廊下は歩行者が多く、エレベータホールは立って待っている人が多い。このような場合、画像から検出される動体領域の面積や、動体の動きの時間間隔が異なる。そのため、調整用端末は、識別対象の空間の性質に応じて、背景画像の量を調整してもよい。 Further, the dictionary information necessary for the image sensor may differ depending on the intended use of the space to be imaged, the layout, the required detection accuracy, and the like. For example, compared to the office room, there are more pedestrians in the hallway and more people are standing and waiting in the elevator hall. In such a case, the area of the moving object region detected from the image and the time interval of movement of the moving object are different. Therefore, the adjustment terminal may adjust the amount of the background image according to the property of the space to be identified.
また、撮像対象の空間の使用用途によっては照明装置の制御パターンや、外光の取り入れ方が異なる。例えば、会議室であればプロジェクタの使用に応じて、エントランスホールでれば電光掲示板や大型テレビに撮像される映像に応じて、空間の明るさが変化する。このような場合、背景画像の撮像条件には、個々の空間の特性に応じた条件が設定されてもよい。この場合、撮像制御部は、制御信号生成部にプロジェクタや電光掲示板、大型テレビの制御を指示し、これらの機器によって異なる明るさとなった空間について背景画像を取得する。 Further, the control pattern of the lighting device and the way of taking in external light differ depending on the usage application of the space to be imaged. For example, the brightness of the space changes in accordance with the use of a projector in a conference room, and in the entrance hall in accordance with an image captured on an electric bulletin board or a large television. In such a case, conditions according to the characteristics of the individual spaces may be set as the background image capturing conditions. In this case, the imaging control unit instructs the control signal generation unit to control the projector, the electric bulletin board, and the large television, and acquires a background image for a space having different brightness depending on these devices.
また、背景画像は、人が不在の環境で取得することが望ましい。そのため、調整用端末は、画像センサ1による検知情報を取得して、人が不在のタイミングで画像取得を行うように構成されてもよい。また、複数の画像センサが設置された大きな部屋などでは、調整用端末は、部屋単位での制御ではなく、次の図12のように、人が不在となったエリアごとに背景画像を取得するように制御してもよい。このような制御による背景画像の収集は、例えば、ビル引き渡し前の現地調整時だけでなく、ビル引き渡し後の運用時にも適用できる。このような背景画像の取得を行えば、ビルの運用中の背景画像を随時画像センサ1に学習させることができる。
In addition, it is desirable to obtain the background image in an environment where no person is present. Therefore, the adjustment terminal may be configured to acquire detection information from the
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.
1、1−1、1−2、1−3…画像センサ,11…通信部,12…撮像部,13…画像記憶部,14…辞書情報記憶部,15…動体検出部,16…動体判定部,17…人判定部,2…ネットワークハブ,3…ゲートウェイサーバ,4…BEMS(Building Energy Management System),5…機器制御装置,6…可視化装置,7、7a、7b、7c…調整用端末,71…通信部,72、72a、72b…記憶部,73…画像データ取得部,74…属性付与部,75、75a、75b、75c…撮像制御部,751…所要時間算出部,752…優先度算出部,76…状態取得部,77…制御信号生成部,10…天井,20…照明機器,30…空調機器,40…機器ネットワーク,50…制御ネットワーク,100…センサ,101−1〜101−4…アンビエント照明,102−1、102−2…タスク照明,200−1〜200−4…アンビエント照明,201−1〜201−8…机
DESCRIPTION OF
Claims (13)
前記空間を撮像し前記空間の画像を取得する撮像部が前記空間を撮像するタイミングを制御する撮像制御部と、
前記撮像部から前記空間の画像を取得し、取得した前記画像を、前記画像の取得に関する属性情報と対応づけて前記画像記憶部に記憶させる属性付与部と、
を備える画像収集装置。 An image storage unit for storing an image in which a space for detecting a person is captured;
An imaging control unit that controls the timing at which an imaging unit that captures the space and acquires an image of the space captures the space;
An attribute providing unit that acquires an image of the space from the imaging unit, and stores the acquired image in the image storage unit in association with attribute information related to the acquisition of the image;
An image collecting apparatus comprising:
請求項1に記載の画像収集装置。 The attribute information includes imaging setting information indicating information set regarding an imaging operation when the imaging unit acquires the image.
The image collecting apparatus according to claim 1.
請求項1又は2に記載の画像収集装置。 The attribute information includes space state information indicating a state of the space when the image is acquired.
The image collecting apparatus according to claim 1.
請求項2又は3に記載の画像収集装置。 The attribute assigning unit acquires the imaging setting information from the imaging unit in synchronization with the timing;
The image collecting apparatus according to claim 2.
請求項1から4のいずれか一項に記載の画像収集装置。 The imaging control unit controls the timing based on acquisition condition information indicating a condition related to acquisition of the image by the imaging unit;
The image collection device according to claim 1.
前記設備の現在の状態を示す設備状態情報を取得する設備状態取得部と、
をさらに備え、
前記取得条件情報は、前記撮像部が前記画像を取得する際の前記設備の状態に関する条件を示し、
前記撮像制御部は、前記取得条件情報によって示される条件が満たされるような前記設備の状態を前記設備の撮像時状態として決定し、前記設備状態情報に基づいて現在の前記設備の状態を判断し、現在の前記設備の状態が前記撮像時状態となったタイミングで前記撮像部に前記空間の撮像を指示し、
前記機器制御部は、前記設備の状態が前記撮像時状態となるように前記設備を制御する、
請求項5に記載の画像収集装置。 A device control unit for controlling equipment for changing the brightness of the space;
An equipment state acquisition unit for acquiring equipment state information indicating the current state of the equipment;
Further comprising
The acquisition condition information indicates a condition related to the state of the equipment when the imaging unit acquires the image,
The imaging control unit determines a state of the facility that satisfies a condition indicated by the acquisition condition information as an imaging state of the facility, and determines a current state of the facility based on the facility state information. , Instructing the imaging unit to image the space at the timing when the current state of the equipment becomes the imaging state,
The device control unit controls the facility so that the state of the facility becomes the imaging state.
The image collecting apparatus according to claim 5.
前記設備状態情報は、前記ブラインドの現在の状態を示し、
前記撮像制御部は、前記取得条件情報とその日の天候を示す天候情報とに基づいて、前記ブラインドの撮像時状態を決定し、現在の前記ブラインドの状態が前記撮像時状態となったタイミングで前記撮像部に前記空間の撮像を指示し、
前記機器制御部は、前記ブラインドの状態が前記撮像時状態となるように前記ブラインドを制御する、
請求項6に記載の画像収集装置。 The acquisition condition information indicates a condition relating to a blind state of the space when the imaging unit acquires the image,
The equipment status information indicates the current status of the blind,
The imaging control unit determines the imaging state of the blind based on the acquisition condition information and weather information indicating the weather of the day, and at the timing when the current state of the blind becomes the imaging state Instruct the imaging unit to image the space,
The device control unit controls the blind so that the state of the blind is the imaging state;
The image collecting apparatus according to claim 6.
前記設備状態情報は、前記ブラインドの現在の状態を示し、
前記撮像制御部は、前記取得条件情報と太陽の位置を示す太陽位置情報とに基づいて、前記ブラインドの撮像時状態を決定し、現在の前記ブラインドの状態が前記撮像時状態となったタイミングで前記撮像部に前記空間の撮像を指示し、
前記機器制御部は、前記ブラインドの状態が前記撮像時状態となるように前記ブラインドを制御する、
請求項6に記載の画像収集装置。 The acquisition condition information indicates a condition relating to a blind state of the space when the imaging unit acquires the image,
The equipment status information indicates the current status of the blind,
The imaging control unit determines an imaging state of the blind based on the acquisition condition information and solar position information indicating a sun position, and at a timing when the current state of the blind becomes the imaging state. Instructing the imaging unit to image the space,
The device control unit controls the blind so that the state of the blind is the imaging state;
The image collecting apparatus according to claim 6.
各条件での前記空間の画像の取得に要する所要時間を算出する所要時間算出部と、
前記所要時間に基づいて、各条件の前記画像の取得に関する優先度を決定する優先度決定部と、
をさらに備える、
請求項5から8のいずれか一項に記載の画像収集装置。 The acquisition condition information indicates a plurality of conditions related to acquisition of the image,
A required time calculation unit for calculating a required time required to acquire an image of the space under each condition;
A priority determining unit that determines a priority for acquiring the image of each condition based on the required time;
Further comprising
The image collection device according to claim 5.
前記制御部は、前記取得条件情報に基づいて、撮像対象の空間の場所に応じた取得条件で前記撮像部に前記空間の撮像を指示する、
請求項5から9のいずれか一項に記載の画像収集装置。 The acquisition condition information indicates an acquisition condition of the image according to a location,
The control unit instructs the imaging unit to image the space under an acquisition condition according to a location of a space to be imaged based on the acquisition condition information.
The image collection device according to claim 5.
請求項1から10のいずれか一項に記載の画像収集装置。 The imaging control unit acquires a detection result of the person in the space from a person detection unit that detects a person existing in the space based on the image of the space, and at a timing when the person is absent based on the detection result. Controlling the imaging unit to image the space;
The image collection device according to claim 1.
前記空間を撮像し前記空間の画像を取得する撮像部が前記空間を撮像するタイミングを制御する撮像制御ステップと、
前記撮像部から前記空間の画像を取得し、取得した前記画像を、前記画像の取得に関する属性情報と対応づけて前記画像記憶部に記憶させる属性付与ステップと、
を有する画像収集方法。 An image collecting method performed by an image collecting apparatus including an image storage unit that stores an image obtained by capturing a space in which a person is detected,
An imaging control step for controlling the timing at which the imaging unit that images the space and acquires the image of the space captures the space;
An attribute providing step of acquiring an image of the space from the imaging unit, and storing the acquired image in the image storage unit in association with attribute information relating to the acquisition of the image;
An image collecting method.
前記空間を撮像し前記空間の画像を取得する撮像部が前記空間を撮像するタイミングを制御する撮像制御ステップと、
前記撮像部から前記空間の画像を取得し、取得した前記画像を、前記画像の取得に関する属性情報と対応づけて前記画像記憶部に記憶させる属性付与ステップと、
をコンピュータに実行させるためのコンピュータプログラム。 In an image collection method performed by an image collection device including an image storage unit that stores an image in which a space for detecting a person is captured,
An imaging control step for controlling the timing at which the imaging unit that images the space and acquires the image of the space captures the space;
An attribute providing step of acquiring an image of the space from the imaging unit, and storing the acquired image in the image storage unit in association with attribute information relating to the acquisition of the image;
A computer program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015050700A JP6495696B2 (en) | 2015-03-13 | 2015-03-13 | Image collecting apparatus, image collecting method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015050700A JP6495696B2 (en) | 2015-03-13 | 2015-03-13 | Image collecting apparatus, image collecting method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016171499A true JP2016171499A (en) | 2016-09-23 |
JP6495696B2 JP6495696B2 (en) | 2019-04-03 |
Family
ID=56984259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015050700A Active JP6495696B2 (en) | 2015-03-13 | 2015-03-13 | Image collecting apparatus, image collecting method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6495696B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019008460A (en) * | 2017-06-22 | 2019-01-17 | 株式会社東芝 | Object detection device and object detection method and program |
US10867378B2 (en) | 2016-11-30 | 2020-12-15 | Rakuten, Inc. | Image processing device, image processing method, server, and computer program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000341679A (en) * | 1999-06-01 | 2000-12-08 | Secom Co Ltd | Picture recognizing device and monitoring device |
JP2002157598A (en) * | 2000-11-16 | 2002-05-31 | Japan Radio Co Ltd | System for detecting invader |
JP2003199099A (en) * | 2001-12-27 | 2003-07-11 | Canon Inc | Apparatus and method for processing image as well as computer program and computer readable storage medium |
JP2009211525A (en) * | 2008-03-05 | 2009-09-17 | Mitsubishi Electric Corp | Object detector |
JP2010044669A (en) * | 2008-08-15 | 2010-02-25 | Seiko Precision Inc | Moving object detector, moving object detection method, and program |
-
2015
- 2015-03-13 JP JP2015050700A patent/JP6495696B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000341679A (en) * | 1999-06-01 | 2000-12-08 | Secom Co Ltd | Picture recognizing device and monitoring device |
JP2002157598A (en) * | 2000-11-16 | 2002-05-31 | Japan Radio Co Ltd | System for detecting invader |
JP2003199099A (en) * | 2001-12-27 | 2003-07-11 | Canon Inc | Apparatus and method for processing image as well as computer program and computer readable storage medium |
JP2009211525A (en) * | 2008-03-05 | 2009-09-17 | Mitsubishi Electric Corp | Object detector |
JP2010044669A (en) * | 2008-08-15 | 2010-02-25 | Seiko Precision Inc | Moving object detector, moving object detection method, and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10867378B2 (en) | 2016-11-30 | 2020-12-15 | Rakuten, Inc. | Image processing device, image processing method, server, and computer program |
JP2019008460A (en) * | 2017-06-22 | 2019-01-17 | 株式会社東芝 | Object detection device and object detection method and program |
Also Published As
Publication number | Publication date |
---|---|
JP6495696B2 (en) | 2019-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5726792B2 (en) | Information processing apparatus, image sensor apparatus, and program | |
JP2016171526A (en) | Image sensor, person detection method, control system, control method, and computer program | |
US11050936B2 (en) | Systems and methods for automatic exposure in high dynamic range video capture systems | |
WO2019114191A1 (en) | Internet of things-based building operation device status monitoring and visual analysis system | |
US9829955B2 (en) | Information processing apparatus and method to control a target device based on detection of people in the vicinity of the target device | |
CN109842984A (en) | Wisdom classroom lighting control system and wisdom classroom illuminate self-adaptation control method | |
CN105035887A (en) | Intelligent elevator master control system based on computer visual inspection | |
JP6316102B2 (en) | Adjustment terminal, adjustment method, and computer program | |
KR102314903B1 (en) | Method And Apparatus for Controlling Building Based on Image | |
EP3888344B1 (en) | Methods and systems for colorizing infrared images | |
JP6495696B2 (en) | Image collecting apparatus, image collecting method, and computer program | |
JP7146416B2 (en) | Information processing device, information processing system, information processing method, and program | |
JP2016179887A (en) | Elevator in-car monitoring device | |
CN109844825B (en) | Presence detection system and method | |
JP2014139745A (en) | Equipment management system, equipment management device, equipment management method and program | |
WO2017119336A1 (en) | Lighting control system, lighting control method, lighting control device, and computer program | |
JP2015018823A (en) | Illumination control device, human detection sensor, and illumination control method | |
JP2022117761A (en) | Sensor system, image sensor, server device, sensing method, and program | |
JP2015222641A (en) | Lighting control system, image sensor, image sensor calibration method, and computer program | |
KR20200038189A (en) | Information output device, detection system, control method and program | |
WO2020115791A1 (en) | Equipment control device, equipment control method, and learning method | |
JP2020010145A (en) | Information registration apparatus, information processing apparatus, method of controlling information registration apparatus, method of controlling information processing apparatus, system, and program | |
JP2020149407A (en) | Monitoring system and monitoring method | |
KR20140080585A (en) | System for controlling lighting using context based on light event | |
JP2019133265A (en) | Use reservation system, use reservation apparatus, use reservation method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20170911 Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20170911 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180816 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6495696 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |