JP2016171526A - Image sensor, person detection method, control system, control method, and computer program - Google Patents

Image sensor, person detection method, control system, control method, and computer program Download PDF

Info

Publication number
JP2016171526A
JP2016171526A JP2015051318A JP2015051318A JP2016171526A JP 2016171526 A JP2016171526 A JP 2016171526A JP 2015051318 A JP2015051318 A JP 2015051318A JP 2015051318 A JP2015051318 A JP 2015051318A JP 2016171526 A JP2016171526 A JP 2016171526A
Authority
JP
Japan
Prior art keywords
person
information
image
image sensor
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015051318A
Other languages
Japanese (ja)
Inventor
和美 長田
Kazumi Osada
和美 長田
榎原 孝明
Takaaki Enohara
孝明 榎原
周平 野田
Shuhei Noda
周平 野田
禎敏 齋藤
Sadatoshi Saitou
禎敏 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015051318A priority Critical patent/JP2016171526A/en
Publication of JP2016171526A publication Critical patent/JP2016171526A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image sensor, a person detection method, a control system, a control method, and a computer program capable of accurately detecting a person from an image obtained by imaging a wide range.SOLUTION: The image sensor comprises an imaging part 12, a dictionary information storage part 13, and a person information acquisition part 14. The imaging part 12 performs wide angle imaging of a target space of person detection. The dictionary information storage part 13 stores plural pieces of dictionary information indicating the characteristic of a person. The person information acquisition part 14 detects the person from an image on the basis of an image imaged by the imaging part 12 and the pieces of dictionary information.SELECTED DRAWING: Figure 3

Description

本発明の実施形態は、画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラムに関する。   Embodiments described herein relate generally to an image sensor, a human detection method, a control system, a control method, and a computer program.

画像から動体を検出する一般的な手法の一つとして、画像の輝度変化に基づいて動体を検出するフレーム間差分法がある。フレーム間差分法は、連続して取得される画像間の差分を取得し、変化があった領域の被写体を動体として検出する手法である。このような動体検出の結果に基づいて、人を検出する技術が提案されている。
しかしながら、オフィスなどにカメラを設置した場合、人の動きだけでなく、外光や照明による空間の明るさの変化によって画像の輝度変化が生じる場合がある。そのため、実際には人が存在しないにも関わらず、人を誤検出する可能性がある。この問題を解決するため、人の代表的な行動や挙動を学習し、動体が人であるか否かを識別する技術が提案されている。
One common method for detecting a moving object from an image is an inter-frame difference method for detecting a moving object based on a change in luminance of the image. The inter-frame difference method is a method of acquiring a difference between images acquired continuously and detecting a subject in a region where the change has occurred as a moving object. A technique for detecting a person based on the result of such moving object detection has been proposed.
However, when a camera is installed in an office or the like, the luminance of an image may change due to changes in the brightness of the space caused by external light or illumination as well as human movement. Therefore, there is a possibility that a person is erroneously detected even though no person actually exists. In order to solve this problem, a technique has been proposed in which representative behavior and behavior of a person are learned and whether or not a moving object is a person is identified.

しかしながら、このような従来技術は、人が十分な大きさで撮像されることを前提としている。このような前提では、検出対象の空間の広さによっては多くのカメラが必要となる。これに対して、広範囲の撮像が可能な魚眼レンズや超広角レンズを持つカメラがあるが、広範囲が撮像された画像は、レンズの歪みや被写体との距離に応じて被写体の写り方が大きく異なる。そのため、広範囲が撮像された画像から精度良く人を検出することが困難であった。   However, such a conventional technique is based on the premise that a person is imaged with a sufficient size. Under such a premise, many cameras are required depending on the size of the space to be detected. On the other hand, there are cameras with fish-eye lenses and super-wide-angle lenses that can capture a wide range of images. Images captured over a wide range vary greatly in how the subject is captured depending on lens distortion and the distance from the subject. For this reason, it has been difficult to accurately detect a person from an image in which a wide range has been captured.

特許第4432181号公報Japanese Patent No. 4432181 特許第4852159号公報Japanese Patent No. 4852159 特許第5349622号公報Japanese Patent No. 5349622

本発明が解決しようとする課題は、広範囲が撮像された画像から精度良く人を検出することができる画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラムを提供することである。   The problem to be solved by the present invention is to provide an image sensor, a person detection method, a control system, a control method, and a computer program that can accurately detect a person from an image captured over a wide range.

実施形態の画像センサは、撮像部と、記憶部と、検出部と、を持つ。撮像部は、人を検出する対象の空間を撮像する。記憶部は、人の特徴を示す複数の辞書情報を記憶する。検出部は、前記撮像部によって撮像された画像と前記複数の辞書情報とに基づいて前記画像から人を検出する。   The image sensor according to the embodiment includes an imaging unit, a storage unit, and a detection unit. An imaging part images the space of the object which detects a person. The storage unit stores a plurality of dictionary information indicating human characteristics. The detection unit detects a person from the image based on the image captured by the imaging unit and the plurality of dictionary information.

実施形態の画像センサ1の利用例を示す図。The figure which shows the usage example of the image sensor 1 of embodiment. 実施形態の画像センサ1を用いた機器制御システムの構成を示すシステム構成図。1 is a system configuration diagram showing a configuration of a device control system using an image sensor 1 of an embodiment. 実施形態の画像センサ1の機能構成を示す機能ブロック図。The functional block diagram which shows the function structure of the image sensor 1 of embodiment. 画像センサ1が人物情報を取得する処理の流れを示すフローチャート。The flowchart which shows the flow of the process in which the image sensor 1 acquires person information. 画像センサ1が取得する画像の具体例を示す図。The figure which shows the specific example of the image which the image sensor 1 acquires. 画像センサ1が取得する画像の具体例を示す図。The figure which shows the specific example of the image which the image sensor 1 acquires. レンズの歪みに応じて分割された画像の具体例を示す図。The figure which shows the specific example of the image divided | segmented according to distortion of a lens. 機器制御装置5の機能構成を示す機能ブロック図。FIG. 3 is a functional block diagram showing a functional configuration of the device control apparatus 5. 制御情報生成部56が制御情報を生成する方法の具体例を示す図。The figure which shows the specific example of the method the control information generation part 56 produces | generates control information. 調整用端末7の機能構成を示す機能ブロック図。The functional block diagram which shows the function structure of the terminal 7 for adjustment.

以下、実施形態の画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラムを、図面を参照して説明する。   Hereinafter, an image sensor, a human detection method, a control system, a control method, and a computer program according to embodiments will be described with reference to the drawings.

(実施形態)
図1は、実施形態の画像センサ1の利用例を示す図である。
図1は、画像センサ1が、オフィスフロアの機器の制御に用いられた例を示す。図1の例の場合、照明機器20及び空調機器30が制御対象の機器である。画像センサ1は、オフィスフロアの天井10に設置され、オフィスフロアを撮像する。画像センサ1は、撮像した画像から環境情報や人物情報を取得する。環境情報は、撮像対象の空間(以下、「対象空間」という。)の環境に関する情報である。例えば、環境情報は、オフィスの照度や温度などを示す情報である。人物情報は、対象空間における人に関する情報である。例えば、人物情報は、人の在又は不在や人数、人の行動、人の活動量などを示す情報である。人物情報を取得するため、画像センサ1は、取得した画像を解析して人を検出する。画像センサ1は、取得した環境情報や人物情報を、照明機器20及び空調機器30を制御する制御装置に送信する。制御装置は、画像センサ1によって取得された環境情報や人物情報に基づいて、照明機器20及び空調機器30を制御するための制御情報を生成する。制御装置は、生成した制御情報を照明機器20及び空調機器30に送信する。照明機器20及び空調機器30が、制御装置から送信された制御情報に基づいて自装置を動作させる。このような制御によって、環境情報や人物情報に基づく機器の制御が実現される。
(Embodiment)
FIG. 1 is a diagram illustrating a usage example of the image sensor 1 of the embodiment.
FIG. 1 shows an example in which the image sensor 1 is used to control equipment on an office floor. In the case of the example in FIG. 1, the lighting device 20 and the air conditioning device 30 are devices to be controlled. The image sensor 1 is installed on the ceiling 10 of the office floor and images the office floor. The image sensor 1 acquires environment information and person information from the captured image. The environment information is information regarding the environment of the imaging target space (hereinafter referred to as “target space”). For example, the environmental information is information indicating the illuminance or temperature of the office. The person information is information about a person in the target space. For example, the person information is information indicating the presence or absence of a person, the number of people, the behavior of the person, the amount of activity of the person, and the like. In order to acquire person information, the image sensor 1 analyzes the acquired image and detects a person. The image sensor 1 transmits the acquired environmental information and person information to a control device that controls the lighting device 20 and the air conditioning device 30. The control device generates control information for controlling the lighting device 20 and the air conditioning device 30 based on the environmental information and the person information acquired by the image sensor 1. The control device transmits the generated control information to the lighting device 20 and the air conditioning device 30. The lighting device 20 and the air conditioning device 30 operate the own device based on the control information transmitted from the control device. By such control, device control based on environmental information and personal information is realized.

例えば、人物情報として人の在又は不在を示す情報が取得される場合、制御装置は、人が居るエリアでは空調及び照明をONにし、人が居ないエリアでは空調及び照明をOFFにする、又は出力を下げるように空調及び照明を制御することができる。また、人が存在する場合には、タスク照明をONにするような制御も考えられる。また、デスクや通路など、人が検出された場所に応じてアンビエント照明の調光率を変化させるような制御も考えられる。   For example, when information indicating the presence or absence of a person is acquired as person information, the control device turns on air conditioning and lighting in an area where there is a person, and turns off air conditioning and lighting in an area where there is no person, or Air conditioning and lighting can be controlled to reduce output. In addition, when there is a person, control that turns on task lighting is also conceivable. In addition, control such as changing the dimming rate of the ambient lighting according to a place where a person is detected, such as a desk or a passage, can be considered.

また、例えば、人物情報として人の活動量を示す情報が取得される場合、制御装置は、活動量が小さい場合にはデスクワークをしている人が多いと判断して空調の出力を弱め、活動量が大きい場合には人が活発に活動していると判断して空調の出力を強めるように空調を制御することができる。また、例えば、人物情報として人の分布を示す情報が取得される場合、人の分布に応じてフロア内の照明の調光率を変化させるように照明を制御することができる。   Also, for example, when information indicating the amount of activity of a person is acquired as personal information, the control device determines that there are many people who are doing desk work when the amount of activity is small, and reduces the output of air conditioning. When the amount is large, it can be determined that the person is actively active and the air conditioning can be controlled to increase the output of the air conditioning. Further, for example, when information indicating a person distribution is acquired as the person information, the lighting can be controlled so as to change the dimming rate of the lighting in the floor according to the person distribution.

近年、上述したような画像センサを始め、様々なセンサのセンシング結果を利用して、機器の省エネルギー化を図る取り組みが行われている。中でも、画像センサは、人感センサや明かりセンサと比較して多種多様な情報を取得できる。さらに、魚眼レンズや超広角レンズなどを備える場合、画像センサは1台で広範囲の情報を取得することができる。このように、広範囲が撮像された画像から人に関する情報を精度良く取得することができれば、省エネルギーと快適性とを両立するきめ細やかな制御が可能となる。実施形態の画像センサ1は、人の代表的な行動や挙動を学習することで、人に関する情報の取得をより精度良く行う。   In recent years, efforts have been made to save energy of devices using sensing results of various sensors including the above-described image sensors. Among them, the image sensor can acquire a wide variety of information as compared with the human sensor and the light sensor. Furthermore, when a fish-eye lens, a super-wide-angle lens, or the like is provided, a single image sensor can acquire a wide range of information. As described above, if information about a person can be acquired with high accuracy from an image captured over a wide range, fine control that achieves both energy saving and comfort is possible. The image sensor 1 according to the embodiment acquires information about a person with higher accuracy by learning representative actions and behaviors of the person.

図2は、実施形態の画像センサ1を用いた機器制御システムの構成を示すシステム構成図である。
図2の機器制御システムは、複数の画像センサ1−1〜1−3を備える。画像センサ1−1〜1−3は、画像から取得した人物情報や環境情報(以下、「検知情報」という。)をネットワークハブ2を介して、ゲートウェイサーバ3に送信する。ゲートウェイサーバ3は、各画像センサ1から送信された人物情報や環境情報を、BEMS(Building Energy Management System)4や機器制御装置5、可視化装置6、調整用端末7などに送信する。
FIG. 2 is a system configuration diagram illustrating a configuration of a device control system using the image sensor 1 of the embodiment.
The device control system of FIG. 2 includes a plurality of image sensors 1-1 to 1-3. The image sensors 1-1 to 1-3 transmit personal information and environment information (hereinafter referred to as “detection information”) acquired from the images to the gateway server 3 via the network hub 2. The gateway server 3 transmits the person information and environment information transmitted from each image sensor 1 to a BEMS (Building Energy Management System) 4, a device control device 5, a visualization device 6, an adjustment terminal 7, and the like.

BEMS4は、センサなどから建物の使用エネルギーや室内環境を示す情報を取得し、これを省エネルギーに役立てるための分析や診断を行う。   The BEMS 4 acquires information indicating the energy used in the building and the indoor environment from a sensor or the like, and performs analysis and diagnosis to make use of this information for energy saving.

機器制御装置5は、検知情報に基づいて、制御対象の機器を最適に制御するための制御情報を生成する。機器制御装置5は、生成した制御情報を送信することで、制御対象の機器を制御する。機器制御装置5の制御対象となる機器は、例えば、空調機器や、照明機器、エレベータなどの機器である。   The device control device 5 generates control information for optimally controlling the device to be controlled based on the detection information. The device control apparatus 5 controls the device to be controlled by transmitting the generated control information. A device to be controlled by the device control device 5 is a device such as an air conditioner, a lighting device, and an elevator, for example.

可視化装置6は、機器制御システムの情報を可視化する装置である。例えば、可視化装置6は、BEMS4による分析や診断の結果を取得して、建物の使用エネルギーや室内環境などを可視化する。   The visualization device 6 is a device that visualizes information of the device control system. For example, the visualization device 6 obtains the results of analysis and diagnosis by the BEMS 4 and visualizes the energy used in the building, the indoor environment, and the like.

調整用端末7は、画像センサ1と通信し、画像センサ1の各種設定や調整を行うための調整プログラムがインストールされた端末である。例えば、調整用端末7は、PC(Personal Computer)やスマートフォン、タブレットなどの情報端末である。なお、調整プログラムは、画像センサ1と通信可能であれば、調整用端末7以外の他の装置にインストールされてもよい。   The adjustment terminal 7 is a terminal that communicates with the image sensor 1 and in which an adjustment program for performing various settings and adjustments of the image sensor 1 is installed. For example, the adjustment terminal 7 is an information terminal such as a PC (Personal Computer), a smartphone, or a tablet. The adjustment program may be installed in a device other than the adjustment terminal 7 as long as it can communicate with the image sensor 1.

ネットワークハブ2及び調整用端末7は機器ネットワーク40に接続され、BEMS4、機器制御装置5及び可視化装置6は制御ネットワーク50に接続される。例えば、制御ネットワーク50はEthernet(登録商標)などのネットワークであり、制御ネットワーク50は、BACnetIPネットワークである。機器ネットワーク40に接続された装置と、制御ネットワーク50に接続された装置との通信は、ゲートウェイサーバ3のプロトコル変換により中継される。   The network hub 2 and the adjustment terminal 7 are connected to the device network 40, and the BEMS 4, the device control device 5, and the visualization device 6 are connected to the control network 50. For example, the control network 50 is a network such as Ethernet (registered trademark), and the control network 50 is a BACnetIP network. Communication between the device connected to the device network 40 and the device connected to the control network 50 is relayed by protocol conversion of the gateway server 3.

なお、機器ネットワーク40及び制御ネットワーク50は、各ネットワーク間の通信が可能であれば、上記と異なるネットワークであってもよい。例えば、機器ネットワーク40及び制御ネットワーク50は、特定用途に規格化された産業用Ethernet(登録商標)などのネットワークであってもよいし、独自プロトコルのネットワークであってもよい。また、機器ネットワーク40及び制御ネットワーク50は、同一のネットワークであってもよい。   The device network 40 and the control network 50 may be different networks as long as communication between the networks is possible. For example, the device network 40 and the control network 50 may be a network such as industrial Ethernet (registered trademark) standardized for a specific application, or may be a network of a unique protocol. The device network 40 and the control network 50 may be the same network.

図3は、実施形態の画像センサ1の機能構成を示す機能ブロック図である。
画像センサ1は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、画像センサプログラムを実行する。画像センサ1は、画像センサプログラムの実行によって通信部11、撮像部12、辞書情報記憶部13及び人物情報取得部14を備える装置として機能する。なお、画像センサ1の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。画像センサプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。画像センサプログラムは、電気通信回線を介して送信されてもよい。
FIG. 3 is a functional block diagram illustrating a functional configuration of the image sensor 1 according to the embodiment.
The image sensor 1 includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes an image sensor program. The image sensor 1 functions as an apparatus including the communication unit 11, the imaging unit 12, the dictionary information storage unit 13, and the person information acquisition unit 14 by executing the image sensor program. Note that all or part of the functions of the image sensor 1 may be realized using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). The image sensor program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The image sensor program may be transmitted via a telecommunication line.

通信部11は、自装置をネットワークハブ2に接続するための通信インターフェースを用いて構成される。通信部11は、ネットワークハブ2を介して、機器ネットワーク40及び制御ネットワーク50に接続された各種装置と通信する。   The communication unit 11 is configured using a communication interface for connecting the own device to the network hub 2. The communication unit 11 communicates with various devices connected to the device network 40 and the control network 50 via the network hub 2.

撮像部12は、カメラ等の撮像装置を用いて構成される。撮像部12は、制御対象の機器についての検知情報が取得可能な位置及び向きに設置される。撮像部12は、設置位置と向きに応じた空間を撮像し、画像データを取得する。撮像部12は、取得した画像データを人物情報取得部14に出力する。   The imaging unit 12 is configured using an imaging device such as a camera. The imaging unit 12 is installed at a position and orientation at which detection information about the device to be controlled can be acquired. The imaging unit 12 captures a space corresponding to the installation position and orientation, and acquires image data. The imaging unit 12 outputs the acquired image data to the person information acquisition unit 14.

辞書情報記憶部13は、人物情報の取得に用いられる複数の辞書情報を記憶する。辞書情報とは、画像から抽出された特徴量と、画像の各種特徴との対応を示す情報である。辞書情報は、予め撮像された画像(以下、「事前画像」という。)に基づいて生成され、予め辞書情報記憶部13に記憶される。以下、この辞書情報の生成及び記憶を学習と呼ぶ。   The dictionary information storage unit 13 stores a plurality of dictionary information used for acquiring personal information. The dictionary information is information indicating correspondence between the feature amount extracted from the image and various features of the image. The dictionary information is generated based on a pre-captured image (hereinafter referred to as “pre-image”) and stored in the dictionary information storage unit 13 in advance. Hereinafter, this generation and storage of dictionary information is referred to as learning.

人物情報取得部14(検出部及び人物情報取得部)は、撮像部12から画像データを取得する。人物情報取得部14は、各種の辞書情報に基づいて、取得した画像データから人物情報を取得する。人物情報取得部14は、例えば、“歩く”、“話す”、“PC作業”などの人の動作や、“顔の向き”、“立位”、“座位”などの人の姿勢などを示す情報を人物情報として取得する。人物情報取得部14は、取得した人物情報を、BEMS4や機器制御装置5、可視化装置6に送信する。   The person information acquisition unit 14 (detection unit and person information acquisition unit) acquires image data from the imaging unit 12. The person information acquisition unit 14 acquires person information from the acquired image data based on various dictionary information. The person information acquisition unit 14 indicates, for example, a person's action such as “walking”, “speaking”, and “PC work”, and a person's posture such as “face orientation”, “standing position”, and “sitting position”. Information is acquired as person information. The person information acquisition unit 14 transmits the acquired person information to the BEMS 4, the device control device 5, and the visualization device 6.

図4は、画像センサ1が人物情報を取得する処理の流れを示すフローチャートである。
まず、撮像部12が、人を検出する対象の空間を撮像し、画像データを取得する(ステップS101)。撮像部12は、取得した画像データを人物情報取得部14に出力する。
FIG. 4 is a flowchart showing a flow of processing in which the image sensor 1 acquires person information.
First, the imaging unit 12 captures an image of a space where a person is to be detected, and acquires image data (step S101). The imaging unit 12 outputs the acquired image data to the person information acquisition unit 14.

人物情報取得部14は、撮像部12から画像データを取得する。人物情報取得部14は、取得した画像データに基づいて、画像から動体を検出する。例えば、人物情報取得部14は、フレーム間差分法により画像から動体を検出する。人物情報取得部14は、検出した動体の領域の画像の特徴量を抽出する(ステップS102)。ここで抽出する特徴量には、特許文献2に記載された累積差分などの輝度変化に関する特徴量や、特許文献3に記載されたCoHOG(Co-occurrence Histograms of Oriented Gradients)などの輝度分布に関する特徴量が用いられてもよい。   The person information acquisition unit 14 acquires image data from the imaging unit 12. The person information acquisition unit 14 detects a moving object from the image based on the acquired image data. For example, the person information acquisition unit 14 detects a moving object from an image by an interframe difference method. The person information acquisition unit 14 extracts the feature amount of the image of the detected moving object region (step S102). The feature amount extracted here is a feature amount related to a luminance change such as a cumulative difference described in Patent Document 2 or a feature related to a luminance distribution such as CoHOG (Co-occurrence Histograms of Oriented Gradients) described in Patent Document 3. An amount may be used.

また、人物情報取得部14は、辞書情報記憶部13から辞書情報を取得する。人物情報取得部14は、動体領域の特徴量と辞書情報とに基づいて、動体が人であるか否を判定するとともに、検出した人の動作や姿勢などを識別する(ステップS103)。人の動作や姿勢などを識別する手法には、ニューラルネットワークやSVM(Support Vector Machine)、k近傍識別器、ベイズ分類などの手法が用いられてもよい。人物情報取得部14は、判定結果を人物情報としてBEMS4や機器制御装置5、可視化装置6に送信する(ステップS104)。   The person information acquisition unit 14 acquires dictionary information from the dictionary information storage unit 13. The person information acquisition unit 14 determines whether or not the moving object is a person based on the feature amount of the moving object region and the dictionary information, and identifies the detected movement and posture of the person (step S103). Neural networks, SVM (Support Vector Machine), k-neighbor discriminators, Bayesian classification, or the like may be used as a method for identifying a person's movement or posture. The person information acquisition unit 14 transmits the determination result as person information to the BEMS 4, the device control apparatus 5, and the visualization apparatus 6 (step S104).

なお、上記の識別に用いられる辞書情報は、識別対象となる事象が撮像された複数の画像に基づいて予め生成される。辞書情報の生成に用いられる画像は、画像センサ1によって取得された画像であってもよいし、他の撮像装置によって撮像された画像であってもよい。また、辞書情報の生成に用いられる画像は、画像センサ1の設置位置において撮像された画像であってもよいし、他の場所で撮像された画像であってもよい。   Note that the dictionary information used for the above identification is generated in advance based on a plurality of images in which an event to be identified is captured. The image used for generating the dictionary information may be an image acquired by the image sensor 1 or an image captured by another imaging device. Further, the image used for generating the dictionary information may be an image captured at the installation position of the image sensor 1 or an image captured at another location.

また、画像センサ1の検出性能は、辞書情報の質によって左右される。そして、辞書情報の質を高めるためには、大量の事前画像が必要となる。しかしながら、大量の事前画像を取得する作業は、非常に多くの労力を要する作業である。そのため、撮像によって新たな事前画像を取得するのではなく、既に取得された事前画像を加工して新たな事前画像を疑似的に生成してもよい。辞書情報は、このように疑似的に生成された画像に基づいて生成された情報であってもよい。辞書情報をこのような方法で生成することによって、少ない労力で辞書情報の質を高めることができる。事前画像の加工は、例えば、画像の回転、解像度の変更、抽出、抽出位置の変更などの操作である。   Further, the detection performance of the image sensor 1 depends on the quality of dictionary information. And in order to improve the quality of dictionary information, a large amount of prior images are required. However, the work of acquiring a large amount of preliminary images is a work that requires a great deal of labor. Therefore, instead of acquiring a new preliminary image by imaging, a new preliminary image may be generated in a pseudo manner by processing a previously acquired preliminary image. The dictionary information may be information generated based on the image generated in a pseudo manner in this way. By generating the dictionary information by such a method, the quality of the dictionary information can be improved with little effort. The pre-image processing is, for example, operations such as image rotation, resolution change, extraction, and extraction position change.

また、人物情報取得部14は、識別対象となる動作や姿勢に応じて、複数の辞書情報を用いてもよい。また、人物情報取得部14は、識別対象となる動作や姿勢に応じて、識別に用いる辞書情報の種類や組み合わせを変更してもよい。また、複数の辞書情報に基づくそれぞれの識別処理は、並列に処理されてもよいし、直列に処理されてもよい。また、特徴量の抽出や識別処理は、各画素を単位として行われてもよいし、画像から抽出される領域を単位として行われてもよい。この場合、特徴量の抽出や識別処理は、外接矩形など、抽出された領域を包含する領域を単位として行われてもよい。また、複数の辞書情報に応じて、異なる処理単位が用いられてもよい。   In addition, the person information acquisition unit 14 may use a plurality of dictionary information according to the operation and posture to be identified. In addition, the person information acquisition unit 14 may change the type and combination of dictionary information used for identification according to the operation and posture to be identified. Moreover, each identification process based on several dictionary information may be processed in parallel, and may be processed in series. The feature amount extraction and identification processing may be performed in units of pixels, or may be performed in units of regions extracted from the image. In this case, feature amount extraction and identification processing may be performed in units of regions including the extracted regions, such as circumscribed rectangles. Different processing units may be used according to a plurality of dictionary information.

図5及び図6は、画像センサ1が取得する画像の具体例を示す図である。
画像内の被写体は、レンズの特性によって歪んで撮像される。画像の歪みは、広範囲を撮像可能なレンズを用いて撮像された画像においてより顕著に表れる。例えば、図5は、魚眼レンズを用いて撮像された画像の例である。図5の画像は、部屋の天井に設置されたカメラが床を見下ろすようにして室内を撮像した画像である。魚眼レンズを用いて撮像した場合、撮像領域の画像は図5のような円形となる。図5の画像から、画像の中心付近は歪みが小さく、画像の中心から離れるにつれ画像の歪みが大きくなっていることが分かる。
5 and 6 are diagrams illustrating specific examples of images acquired by the image sensor 1.
The subject in the image is imaged with distortion due to the characteristics of the lens. Image distortion appears more prominently in an image captured using a lens capable of capturing a wide range. For example, FIG. 5 is an example of an image captured using a fisheye lens. The image in FIG. 5 is an image obtained by capturing an image of the room as the camera installed on the ceiling of the room looks down on the floor. When an image is captured using a fisheye lens, the image of the imaging region is circular as shown in FIG. From the image of FIG. 5, it can be seen that the distortion near the center of the image is small, and the distortion of the image increases as the distance from the center of the image increases.

また、被写体は、カメラからの距離に応じて異なる大きさで撮像される。カメラに近い被写体ほどより大きく撮像され、カメラから遠い被写体ほどより小さく撮像される。また、図6の例のように、同じ被写体であっても撮像時の位置に応じて画像への映り方が大きく異なる。例えば、図6の画像100−1は人を正面から撮像した画像である。画像100−2は人を真上から撮像した画像である。画像100−3は、人の側面を斜め上方から撮像した画像である。画像100−4は、人の正面を斜め前方から撮像した画像である。画像100−5は、人の背面を斜め後方から撮像した画像である。   Also, the subject is imaged with different sizes depending on the distance from the camera. A subject closer to the camera is imaged larger, and a subject farther from the camera is imaged smaller. Further, as in the example of FIG. 6, even in the same subject, the way the image is reflected varies greatly depending on the position at the time of imaging. For example, an image 100-1 in FIG. 6 is an image obtained by capturing a person from the front. An image 100-2 is an image obtained by imaging a person from directly above. The image 100-3 is an image obtained by capturing an image of a human side from an obliquely upper side. An image 100-4 is an image obtained by capturing the front of a person from an oblique front. The image 100-5 is an image obtained by imaging the back of a person from obliquely behind.

辞書情報記憶部13は、このような画像の歪みや大きさ、写り方などの違いを識別するために、複数の辞書情報を記憶する。事前画像から取得される特徴量が、これらの違いに対応する各種特徴と対応づけられることにより、人物情報取得部14は、検出した人についてのこれらの違いを、複数の辞書情報に基づいて識別することができる。   The dictionary information storage unit 13 stores a plurality of dictionary information in order to identify such differences in image distortion, size, and appearance. The feature information acquired from the prior image is associated with various features corresponding to these differences, so that the person information acquisition unit 14 identifies these differences regarding the detected person based on a plurality of dictionary information. can do.

以下、複数の辞書情報に基づいて人物情報を取得する具体例を説明する。   Hereinafter, a specific example in which person information is acquired based on a plurality of dictionary information will be described.

[第1の具体例]
第1の具体例は、レンズの歪みに応じた形状に画像を分割し、分割した領域ごとの辞書情報に基づいて人物情報を取得する方法である。例えば、図5に示した画像の場合、次の図7のように画像を分割する。
[First specific example]
The first specific example is a method of dividing an image into a shape corresponding to the distortion of the lens and acquiring person information based on dictionary information for each divided area. For example, in the case of the image shown in FIG. 5, the image is divided as shown in FIG.

図7は、レンズの歪みに応じて分割された画像の具体例を示す図である。
魚眼レンズを用いて撮像された画像の場合、撮像領域の中心からの距離に応じた領域に分割する。図7の例の場合、画像は、分割領域201、202、203に分割され、辞書情報記憶部13には、それぞれの分割領域ごとの辞書情報が記憶される。ここでは、分割領域201、202、203に対応する辞書情報を、辞書情報1、辞書情報2、辞書情報3と記載する。
FIG. 7 is a diagram illustrating a specific example of an image divided according to lens distortion.
In the case of an image captured using a fisheye lens, the image is divided into regions according to the distance from the center of the imaging region. In the case of the example in FIG. 7, the image is divided into divided areas 201, 202, and 203, and dictionary information for each divided area is stored in the dictionary information storage unit 13. Here, the dictionary information corresponding to the divided areas 201, 202, and 203 is described as dictionary information 1, dictionary information 2, and dictionary information 3.

辞書情報1は、分割領域201と同様に撮像された人の事前画像に基づいて生成される。このように生成される辞書情報1を用いることによって、人物情報取得部14は、図6の例のように、人の頭部が大きく映り全身はほとんど映らないような画像から人物情報を取得することができる。   The dictionary information 1 is generated based on a person's prior image captured in the same manner as the divided area 201. By using the dictionary information 1 generated in this way, the person information acquisition unit 14 acquires person information from an image in which a person's head is large and the whole body is hardly reflected, as in the example of FIG. be able to.

辞書情報2は、分割領域202と同様に撮像された人の事前画像に基づいて生成される。このように生成される辞書情報2を用いることによって、人物情報取得部14は、図6の例のように、人の全身が斜め上方から撮像された画像から人物情報を取得することができる。   The dictionary information 2 is generated based on a person's prior image captured in the same manner as the divided area 202. By using the dictionary information 2 generated in this way, the person information acquisition unit 14 can acquire person information from an image in which the whole body of a person is captured obliquely from above, as in the example of FIG.

辞書情報3は、分割領域203と同様に撮像された人の事前画像に基づいて生成される。このように生成される辞書情報3を用いることによって、人物情報取得部14は、図6の例のように、カメラから遠い人のほぼ正面が撮像された画像から人物情報を取得することができる。   The dictionary information 3 is generated based on a person's previous image captured in the same manner as the divided area 203. By using the dictionary information 3 generated in this way, the person information acquisition unit 14 can acquire person information from an image in which the front of a person far from the camera is captured as in the example of FIG. .

なお、上述したように、レンズの歪みによって、カメラから遠い人ほど小さく撮像されてしまうため、分割領域は、レンズの特性に応じて任意に設定されてよい。また、各分割領域の境界付近に人が検出された場合は、人物情報取得部14は、隣接する2つの分割領域に対応する辞書情報を用いて人物情報を取得してもよい。この場合、所定の優先順位に基づいて、いずれか一方の辞書情報に基づいて取得された人物情報を採用してもよいし、所定の重みに基づいて、両方の辞書情報に基づいて取得された人物情報を組み合わせて採用してもよい。上記の優先順位や重みは、例えば、人物が検出された領域の面積比に応じて決定されてもよい。この場合、画像の歪みを考慮して人物が検出された領域の面積を補正し、補正後の面積比を用いるようにしてもよい。   Note that, as described above, the farther away from the camera, the smaller the image is captured due to distortion of the lens, so the divided areas may be arbitrarily set according to the characteristics of the lens. When a person is detected near the boundary between the divided areas, the person information acquisition unit 14 may acquire person information using dictionary information corresponding to two adjacent divided areas. In this case, the person information acquired based on one of the dictionary information based on a predetermined priority order may be adopted, or acquired based on both dictionary information based on a predetermined weight. You may employ | adopt combining personal information. The priorities and weights described above may be determined according to, for example, the area ratio of the area where the person is detected. In this case, the area of the region where the person is detected may be corrected in consideration of image distortion, and the corrected area ratio may be used.

[第2の具体例]
画像から人物情報を取得する際の問題として、人の一部が他の物体に隠れて撮像されることが挙げられる。このような場合、人の全身が撮像された画像に基づいて生成された辞書情報(以下、「全身辞書」という。)のみでは精度良く人物情報を取得することができない可能性がある。そのため、第2の具体例では、全身辞書と、体の部位に応じて生成された辞書情報とを組み合わせて人物情報を取得する。
[Second specific example]
A problem in acquiring person information from an image is that a part of a person is captured while being hidden by another object. In such a case, there is a possibility that the person information cannot be obtained with high accuracy only by using dictionary information (hereinafter referred to as “whole body dictionary”) generated based on an image of the whole body of a person. Therefore, in the second specific example, the person information is acquired by combining the whole body dictionary and the dictionary information generated according to the body part.

例えば、エレベータホールや廊下、机が少ない打ち合わせスペースなど見通しがよい空間では人の全身が撮像される可能性が高い。これに対して、オフィスなどでは、机やロッカー、椅子、モニタなどのオフィス機器に隠れて撮像される場合がある。そのため、このような場合、例えば、全身辞書に、人の上半身が撮像された画像に基づいて生成された辞書情報(以下、「上半身辞書」という。)や、人の頭部が撮像された画像に基づいて生成された辞書情報(以下、「頭部辞書」という。)など、体の部位に応じて生成された辞書情報を組み合わせることで、人物情報を精度良く取得することができる。   For example, there is a high possibility that a person's whole body is imaged in a space with good visibility such as an elevator hall, a hallway, and a meeting space with few desks. On the other hand, in an office or the like, there is a case where an image is hidden behind an office device such as a desk, a locker, a chair, or a monitor. Therefore, in such a case, for example, dictionary information generated based on an image in which the upper body of a person is captured in a whole body dictionary (hereinafter referred to as “upper body dictionary”) or an image in which the head of a person is captured. The person information can be obtained with high accuracy by combining the dictionary information generated according to the body part, such as the dictionary information generated based on (hereinafter referred to as “head dictionary”).

この場合、辞書情報は、人の動作や姿勢などの識別対象となる事象が撮像された複数の画像に、体の各部位(全身、上半身又は頭部)に当たる領域を対応づけることで生成される。画像と体の部位との対応づけは、人手で行ってもよいし、自動で行ってもよい。対応づけを自動で行う場合、例えば、撮像領域におけるレンズ中心と、全身に対応する領域とを設定することで、全身に対応する領域から上半身や頭部を自動的に抽出するようにしてもよい。   In this case, the dictionary information is generated by associating a region corresponding to each part of the body (whole body, upper body, or head) with a plurality of images obtained by imaging events to be identified such as human movements and postures. . The association between the image and the body part may be performed manually or automatically. When the association is performed automatically, for example, the upper body and the head may be automatically extracted from the region corresponding to the whole body by setting the lens center in the imaging region and the region corresponding to the whole body. .

このように、体の部位に応じて生成された複数の辞書情報を組み合わせる場合、部位ごとに設定された優先順位や、各辞書情報によって取得された人物情報の類似度などに基づいて、どの人物情報を採用するかを判断してもよい。また、第1の具体例と同様に、各辞書情報の重みに基づいて各人物情報を組み合わせて、最終的に採用する人物情報を生成してもよい。   In this way, when combining a plurality of dictionary information generated according to a body part, which person is based on the priority order set for each part, the similarity of person information acquired by each dictionary information, etc. It may be determined whether to adopt information. Similarly to the first specific example, the personal information to be finally adopted may be generated by combining the personal information based on the weight of the dictionary information.

また、複数の辞書情報に基づいて人物情報を取得する場合、各辞書情報に関する処理を並列に実行し、それぞれの結果に基づいて、最終的に採用する人物情報を総合的に判断してもよいし、各辞書情報に関する処理を直列に実行し、より詳細な人物情報を取得するようにしてもよい。例えば、全身辞書に基づいて人が検出された後に、“立位”、“歩行”“走る”などの行動を識別してもよい。また、例えば、頭部辞書に基づいて人の頭部が検出された後に“顔の向き”を識別してもよい。複数の辞書の組み合わせや優先順位、重みなどを適切に設定することにより、処理量の低減と性能の向上が可能になる。   In addition, when acquiring person information based on a plurality of dictionary information, processing related to each dictionary information may be executed in parallel, and finally the person information to be finally adopted may be comprehensively determined based on each result. Then, the processing related to each dictionary information may be executed in series to obtain more detailed person information. For example, after a person is detected based on the whole body dictionary, actions such as “standing position”, “walking”, and “running” may be identified. Further, for example, “face orientation” may be identified after a human head is detected based on a head dictionary. By appropriately setting combinations, priorities, weights, etc. of a plurality of dictionaries, it is possible to reduce the processing amount and improve the performance.

このように構成された実施形態の画像センサ1は、画像からの人の検出に、人の特徴を示す複数の辞書情報を用いることによって、広範囲が撮像された画像から精度良く人を検出することができる。また、人の検出において、動作や姿勢などの人の状態を示す辞書情報を複数用いることにより、検出した人の状態を示す人物情報を取得することができる。また、人の検出において、人の位置に応じて異なる映り方に応じた辞書情報を複数用いることにより、歪みを伴って広範囲が撮像された画像から、精度良く人を検出することができる。   The image sensor 1 according to the embodiment configured as described above can detect a person with high accuracy from an image in which a wide range is captured by using a plurality of dictionary information indicating characteristics of the person for detecting the person from the image. Can do. In addition, in the detection of a person, by using a plurality of dictionary information indicating a person's state such as an action and a posture, person information indicating the detected person's state can be acquired. Further, in the detection of a person, by using a plurality of dictionary information corresponding to different reflection methods depending on the position of the person, it is possible to accurately detect a person from an image in which a wide range is imaged with distortion.

以下、上記の画像センサ1を用いた機器制御システムの具体例について説明する。   Hereinafter, a specific example of a device control system using the image sensor 1 will be described.

例えば、機器制御システムは、画像センサ1、機器制御装置5及び調整用端末7を備える。   For example, the device control system includes an image sensor 1, a device control device 5, and an adjustment terminal 7.

図8は、機器制御装置5の機能構成を示す機能ブロック図である。
機器制御装置5は、バスで接続されたCPUやメモリや補助記憶装置などを備え、機器制御プログラムを実行する。機器制御装置5は、機器制御プログラムの実行によって通信部51、人物情報取得部52、照度情報取得部53、フロア情報取得部54、記憶部55及び制御情報生成部56を備える装置として機能する。なお、機器制御装置5の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。機器制御プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。機器制御プログラムは、電気通信回線を介して送信されてもよい。
FIG. 8 is a functional block diagram showing a functional configuration of the device control device 5.
The device control device 5 includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes a device control program. The device control device 5 functions as a device including a communication unit 51, a person information acquisition unit 52, an illuminance information acquisition unit 53, a floor information acquisition unit 54, a storage unit 55, and a control information generation unit 56 by executing the device control program. Note that all or part of the functions of the device control device 5 may be realized using hardware such as an ASIC, PLD, or FPGA. The device control program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The device control program may be transmitted via a telecommunication line.

通信部51は、自装置を制御ネットワーク50に接続するための通信インターフェースを用いて構成される。通信部51は、ネットワークハブ2又はゲートウェイサーバ3を介して、機器ネットワーク40及び制御ネットワーク50に接続された各種装置と通信する。   The communication unit 51 is configured using a communication interface for connecting the own apparatus to the control network 50. The communication unit 51 communicates with various devices connected to the device network 40 and the control network 50 via the network hub 2 or the gateway server 3.

人物情報取得部52は、画像センサ1から人物情報を取得する。人物情報取得部31は、取得した人物情報を記憶部55に保存する。なお、人物情報は、画像センサ1から人物情報を取得する他の装置から取得されてもよい。例えば、人物情報取得部52は、BEMS4から人物情報を取得してもよい。   The person information acquisition unit 52 acquires person information from the image sensor 1. The person information acquisition unit 31 stores the acquired person information in the storage unit 55. The person information may be acquired from another device that acquires the person information from the image sensor 1. For example, the person information acquisition unit 52 may acquire person information from the BEMS 4.

照度情報取得部53(空間情報取得部)は、画像センサ1が撮像する空間の照度を示す照度情報(空間情報)を取得する。照度情報取得部53は、取得した照度情報を、記憶部55に保存する。
フロア情報取得部54は、画像センサ1が撮像する空間のフロア情報を取得する。フロア情報は、オフィスフロアなどのレイアウトを示す情報である。フロア情報取得部54は、取得したフロア情報を記憶部55に保存する。例えば、フロア情報取得部54は、BEMS4からフロア情報を取得する。
The illuminance information acquisition unit 53 (spatial information acquisition unit) acquires illuminance information (spatial information) indicating the illuminance of the space captured by the image sensor 1. The illuminance information acquisition unit 53 stores the acquired illuminance information in the storage unit 55.
The floor information acquisition unit 54 acquires floor information of a space imaged by the image sensor 1. The floor information is information indicating a layout such as an office floor. The floor information acquisition unit 54 stores the acquired floor information in the storage unit 55. For example, the floor information acquisition unit 54 acquires floor information from the BEMS 4.

記憶部55は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部55は、人物情報、照度情報及びフロア情報を記憶する。   The storage unit 55 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 55 stores person information, illuminance information, and floor information.

制御情報生成部56(制御部)は、人物情報、照度情報及びフロア情報に基づいて、画像センサ1が撮像する空間に関する機器を制御する制御情報を生成する。制御情報生成部56は、生成した制御情報を制御対象の機器に送信する。制御対象の機器は、制御情報生成部56によって生成された制御情報に基づいて動作する。   The control information generation unit 56 (control unit) generates control information for controlling devices related to the space captured by the image sensor 1 based on the person information, the illuminance information, and the floor information. The control information generation unit 56 transmits the generated control information to the control target device. The device to be controlled operates based on the control information generated by the control information generation unit 56.

図9は、制御情報生成部56が制御情報を生成する方法の具体例を示す図である。
例えば、照明機器の制御において、オフィスで作業する人の快適性を確保するためには、人の後ろではなく、前の照明を点灯する方がよい。この場合、制御情報生成部56は、図9(a)のように、画像センサ1から取得した人物情報に基づいて、人の在又は不在、検出された人の顔の向きのなどを判断する。制御情報生成部56は、人の顔の向きに基づいて人の前方の照明を点灯させるような制御情報を生成する。
FIG. 9 is a diagram illustrating a specific example of a method by which the control information generation unit 56 generates control information.
For example, in the control of lighting equipment, it is better to turn on the front lighting rather than the back of the person in order to ensure the comfort of the person working in the office. In this case, as shown in FIG. 9A, the control information generation unit 56 determines the presence or absence of a person, the detected face orientation of the person, and the like based on the person information acquired from the image sensor 1. . The control information generation unit 56 generates control information that turns on the illumination in front of the person based on the orientation of the person's face.

また、例えば、夜間であれば、1つの照明を点灯させるだけでは、手元が暗く作業がしにくい。この場合、制御情報生成部56は、図9(b)のように、検出された人の周囲の照明を点灯させるような制御情報を生成してもよい。また、制御情報生成部56は、照度情報に基づいて、空間の明るさを判断し、外光によって過度な明るさとなっている場合、照明の調光率を低下させるような制御情報を生成してもよい。   In addition, for example, at night, it is difficult to work by turning on only one illumination. In this case, as shown in FIG. 9B, the control information generation unit 56 may generate control information that turns on the illumination around the detected person. In addition, the control information generation unit 56 determines the brightness of the space based on the illuminance information, and generates control information that reduces the dimming rate of the illumination when the brightness is excessive due to external light. May be.

また、例えば、制御情報生成部56は、複数の画像センサ1から取得された人物情報とフロア情報とに基づいてフロア全体の状況を判断し、フロア内の照明機器や空調機器がフロア全体として最適化されるように制御情報を生成してもよい。例えば、制御情報生成部56は、人物情報に基づいてフロア全体における人の分布を判断し、点灯させる照明機器、空調の風向き、空調機器の設定温度などを変更するように制御情報を生成してもよい。   In addition, for example, the control information generation unit 56 determines the status of the entire floor based on the person information and the floor information acquired from the plurality of image sensors 1, and the lighting equipment and air conditioning equipment in the floor are optimal for the entire floor. Control information may be generated such that For example, the control information generation unit 56 determines the distribution of people in the entire floor based on the person information, and generates control information so as to change the lighting equipment to be lit, the airflow direction of the air conditioning, the set temperature of the air conditioning equipment, etc. Also good.

このように、機器制御システムにおいて、画像センサ1と機器制御装置5とを組み合わせることにより、人の状態に応じた柔軟な機器制御が可能となる。機器制御装置5は、照度情報取得部53が取得する照度情報に限らず、機器制御の判断に関する情報であればどのような情報に基づいて制御情報を生成してもよい。この場合、照度情報取得部53は、位置情報を取得する位置情報取得部として機能する。例えば、空間の温度を示す温度情報や、検出対象の人が保持する端末装置から位置情報を取得してもよい。機器制御装置5は、位置情報が示す位置に存在する人の人物情報を画像センサ1から取得するようにしてもよい。   Thus, in the device control system, by combining the image sensor 1 and the device control device 5, flexible device control according to the state of the person is possible. The device control device 5 is not limited to the illuminance information acquired by the illuminance information acquisition unit 53, and may generate control information based on any information as long as it is information related to determination of device control. In this case, the illuminance information acquisition unit 53 functions as a position information acquisition unit that acquires position information. For example, temperature information indicating the temperature of the space or position information may be acquired from a terminal device held by a person to be detected. The device control device 5 may acquire the person information of the person existing at the position indicated by the position information from the image sensor 1.

図10は、調整用端末7の機能構成を示す機能ブロック図である。
調整用端末7は、バスで接続されたCPUやメモリや補助記憶装置などを備え、調整プログラムを実行する。調整用端末は、調整プログラムの実行によって通信部71、画像収集部72、記憶部73、辞書情報生成部74及びパラメータ調整部75を備える装置として機能する。なお、調整用端末7の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。調整プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。調整プログラムは、電気通信回線を介して送信されてもよい。
FIG. 10 is a functional block diagram showing a functional configuration of the adjustment terminal 7.
The adjustment terminal 7 includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus and executes an adjustment program. The adjustment terminal functions as an apparatus including the communication unit 71, the image collection unit 72, the storage unit 73, the dictionary information generation unit 74, and the parameter adjustment unit 75 by executing the adjustment program. Note that all or part of the functions of the adjustment terminal 7 may be realized using hardware such as an ASIC, PLD, or FPGA. The adjustment program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The adjustment program may be transmitted via a telecommunication line.

通信部71は、自装置を機器ネットワーク40に接続するための通信インターフェースを用いて構成される。通信部71は、ネットワークハブ2又はゲートウェイサーバ3を介して、機器ネットワーク40及び制御ネットワーク50に接続された各種装置と通信する。   The communication unit 71 is configured using a communication interface for connecting the own apparatus to the device network 40. The communication unit 71 communicates with various devices connected to the device network 40 and the control network 50 via the network hub 2 or the gateway server 3.

画像収集部72は、辞書情報の作成に必要な事前画像を取得する。画像収集部72は、画像センサ1から事前画像を取得してもよいし、画像センサ1と異なる他の撮像装置から事前情報を取得してもよい。また、画像収集部72は、CD−ROMやフラッシュメモリ等の記憶媒体から事前画像を取得するように構成されてもよい。この場合、画像収集部72は、これらの記憶媒体から情報を読み出す情報読み出し装置又は、情報読み出し装置を自装置に接続するインターフェースとして構成されてもよい。画像収集部72は、取得した画像データを記憶部73に保存する。   The image collection unit 72 acquires a pre-image necessary for creating dictionary information. The image collection unit 72 may acquire a pre-image from the image sensor 1 or may acquire pre-information from another imaging device different from the image sensor 1. The image collection unit 72 may be configured to acquire a pre-image from a storage medium such as a CD-ROM or a flash memory. In this case, the image collection unit 72 may be configured as an information reading device that reads information from these storage media or an interface that connects the information reading device to the own device. The image collection unit 72 stores the acquired image data in the storage unit 73.

記憶部73は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部73は、画像収集部72によって取得された画像データや、辞書情報生成部74によって生成された辞書情報を記憶する。   The storage unit 73 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 73 stores the image data acquired by the image collection unit 72 and the dictionary information generated by the dictionary information generation unit 74.

辞書情報生成部74は、収集された事前画像に基づいて、画像センサ1が人物情報の取得に用いる辞書情報を生成する。なお、画像センサ1が十分な精度で人物情報を取得するためには、画像センサ1は、質の高い辞書情報を学習する必要がある。そのため、辞書情報生成部74は、大量の事前画像を用いて辞書情報を生成する必要がある。大量の事前画像を取得する作業は、多くの労力を要するため、辞書情報生成部74は、画像センサ1と通信することによって、事前画像の取得を自動化するような機能を備えてもよい。   The dictionary information generation unit 74 generates dictionary information used by the image sensor 1 to acquire person information based on the collected prior images. In order for the image sensor 1 to acquire person information with sufficient accuracy, the image sensor 1 needs to learn high-quality dictionary information. Therefore, the dictionary information generation unit 74 needs to generate dictionary information using a large amount of pre-images. Since the work of acquiring a large number of pre-images requires a lot of labor, the dictionary information generation unit 74 may have a function of automating the acquisition of pre-images by communicating with the image sensor 1.

例えば、辞書情報生成部74は、ユーザの入力を受け付ける入力部としての機能を備え、辞書情報の生成に関する各種の設定情報を取得してもよい。例えば、辞書情報生成部74は、画像センサ1に事前画像の取得を実行させるタイミングに関する設定情報を取得してもよい。この場合、辞書情報生成部74は、設定情報が示すタイミングで画像センサ1と通信し、画像センサ1に事前画像の取得を指示してもよい。   For example, the dictionary information generation unit 74 may have a function as an input unit that accepts user input, and may acquire various setting information related to generation of dictionary information. For example, the dictionary information generation unit 74 may acquire setting information related to the timing at which the image sensor 1 executes acquisition of a prior image. In this case, the dictionary information generation unit 74 may communicate with the image sensor 1 at the timing indicated by the setting information, and instruct the image sensor 1 to acquire a prior image.

また、例えば、辞書情報生成部74は、画像収集部72に事前画像を収集させるタイミングに関する設定情報を取得してもよい。この場合、辞書情報生成部74は、設定情報が示すタイミングで、画像収集部72に事前画像の収集を指示してもよい。   For example, the dictionary information generation unit 74 may acquire setting information related to the timing at which the image collection unit 72 collects the pre-images. In this case, the dictionary information generation unit 74 may instruct the image collection unit 72 to collect a pre-image at the timing indicated by the setting information.

また、例えば、辞書情報生成部74は、上記のユーザの入力を他の装置との通信によって取得するように構成されてもよい。辞書情報生成部74がこのような機能を備えることにより、ユーザは、画像センサ1の辞書情報の学習に関する作業を、遠隔制御することが可能となる。例えば、ユーザは、各画像センサ1を目視で確認しつつ、画像センサ1の学習作業を制御することができる。   Further, for example, the dictionary information generation unit 74 may be configured to acquire the above-described user input through communication with another device. When the dictionary information generation unit 74 has such a function, the user can remotely control work related to learning of dictionary information of the image sensor 1. For example, the user can control the learning operation of the image sensor 1 while visually checking each image sensor 1.

辞書情報生成部74が上記機能を備えることにより、事前画像の取得に要する労力を削減することができる。   Since the dictionary information generation unit 74 has the above-described function, it is possible to reduce the labor required for acquiring the prior image.

パラメータ調整部75は、画像センサ1の人物情報を取得する処理における、複数の辞書情報の組み合わせや優先順位、重みなどの推奨値を決定する。パラメータ調整部75は、決定した推奨値を画像センサ1に送信する。   The parameter adjustment unit 75 determines a recommended value such as a combination of a plurality of dictionary information, a priority order, and a weight in the process of acquiring the person information of the image sensor 1. The parameter adjustment unit 75 transmits the determined recommended value to the image sensor 1.

調整用端末7が推奨値を決定する方法の具体例を次に示す。例えば、調整用端末7は、機器制御装置5から位置情報を取得し、BEMS4から各機器の運転状態を示す情報を取得する。この場合、パラメータ調整部75は、位置情報や運転情報に基づいてその日のオフィスの使用状況を判断し、オフィスの使用状況に応じて辞書情報の優先順位を決定してもよい。   A specific example of how the adjustment terminal 7 determines the recommended value is shown below. For example, the adjustment terminal 7 acquires position information from the device control device 5 and acquires information indicating the operation state of each device from the BEMS 4. In this case, the parameter adjustment unit 75 may determine the office usage status of the day based on the position information and the driving information, and may determine the priority order of the dictionary information according to the office usage status.

例えば、機器のON又はOFFが多い場合は人の出入りの頻度が多い日であると判断し、人の“歩行”を識別する辞書情報の重みを大きくしてもよい。また、位置情報に基づいて人の分布を判断し、人が分布する領域との距離に応じて辞書情報の優先順位や判定基準を変更するようにしてもよい。   For example, when the device is frequently turned on or off, it may be determined that the day when the person goes in and out frequently, and the weight of the dictionary information for identifying the person “walking” may be increased. Further, the distribution of people may be determined based on the position information, and the priority order and determination criteria of the dictionary information may be changed according to the distance from the area where the people are distributed.

また、例えば、パラメータ調整部75は、画像センサ1が設置された空間の状態に応じて、推奨値を決定してもよい。例えば、オフィスに設置される机の台数が多い場合や、机が密接している状況であれば、パラメータ調整部75は、全身辞書よりも頭部辞書の優先順位を上げるように推奨値を決定してもよい。一方、机の数が少ない打合せスペースであれば、パラメータ調整部75は、全身辞書の優先順位を上げるように推奨値を決定してもよい。あるいは、調整員が目視でオフィスの主な用途を判断し、座る人が多い場合は、パラメータ調整部75は、姿勢の識別における重みを変更して、“座位”の識別に関する辞書情報の優先順位を高くするように推奨値を決定してもよい。また、パラメータ調整部75は、カメラの性能限界による、白とびや黒つぶれの発生度合いを数値化し、特徴量の抽出に関するパラメータを変更してもよい。このような推奨値の決定に関する分析に必要となる人に関する情報には、画像センサ1によって生成された人物情報が用いられてもよい。   For example, the parameter adjustment unit 75 may determine the recommended value according to the state of the space in which the image sensor 1 is installed. For example, if the number of desks installed in the office is large or the desks are in close contact with each other, the parameter adjustment unit 75 determines a recommended value so as to raise the priority of the head dictionary over the whole body dictionary. May be. On the other hand, if the meeting space has a small number of desks, the parameter adjustment unit 75 may determine the recommended value so as to raise the priority of the whole body dictionary. Alternatively, when the coordinator visually determines the main use of the office and there are many people sitting, the parameter adjustment unit 75 changes the weight in the posture identification, and the priority order of the dictionary information regarding the identification of “sitting position” The recommended value may be determined so as to increase the value. Further, the parameter adjustment unit 75 may digitize the degree of occurrence of overexposure or underexposure due to the performance limit of the camera, and may change a parameter related to feature amount extraction. The person information generated by the image sensor 1 may be used as the information about the person necessary for the analysis regarding the determination of the recommended value.

このように優先順位や重みを決定することにより、例えば、業種や部門による働き方の違いや発生した事象に応じて、辞書情報の使い方を変更することが可能となり、画像センサ1の検出性能を向上させることができる。   By determining priorities and weights in this way, for example, it is possible to change the use of dictionary information according to differences in work styles and events that occur depending on the type of business or department, and the detection performance of the image sensor 1 can be improved. Can be improved.

このように、画像センサ1と調整用端末7とを組み合わせることにより、画像センサ1の人の検出の精度を向上させることができる。   In this manner, by combining the image sensor 1 and the adjustment terminal 7, it is possible to improve the accuracy of human detection of the image sensor 1.

なお、調整用端末7によって生成される辞書情報は、同様の特徴を持つ他の空間が撮像された画像データに基づいて生成されてもよい。ここでは、このように生成された辞書情報を事前辞書情報と呼ぶ。これに対して、検出対象の空間の画像に基づいて生成された辞書情報を現地辞書情報と呼ぶ。この場合、事前辞書情報と現地辞書情報とを組み合わせて辞書情報を生成することにより、辞書情報の生成にかかる労力を軽減しつつ、辞書情報の品質の低下を抑制することができる。   Note that the dictionary information generated by the adjustment terminal 7 may be generated based on image data obtained by imaging another space having similar characteristics. Here, the dictionary information generated in this way is referred to as prior dictionary information. On the other hand, dictionary information generated based on an image of a detection target space is referred to as local dictionary information. In this case, by generating the dictionary information by combining the pre-dictionary information and the local dictionary information, it is possible to reduce the quality of the dictionary information while reducing the labor for generating the dictionary information.

例えば、ビルなどでは、一般に、学習用の画像の収集はビルに人が入居する前の調整時に調整員によって行われることが想定される。上記のような方法で辞書情報を生成すれば、入居前に生成された辞書情報を用いて運用を開始し、運用中に撮像された画像で辞書情報の品質を向上させていくことができる。   For example, in a building or the like, it is generally assumed that collection of learning images is performed by a coordinator during adjustment before a person enters the building. If the dictionary information is generated by the method as described above, the operation can be started using the dictionary information generated before moving in, and the quality of the dictionary information can be improved with the image captured during the operation.

以上説明した少なくともひとつの実施形態によれば、人を検出する対象の空間を撮像する撮像部と、人の特徴を示す複数の辞書情報を記憶する記憶部と、撮像部によって撮像された画像と複数の辞書情報とに基づいて、画像から人を検出し、検出した人の状態を示す人物情報を取得する人物情報取得部と、を持つことにより、広範囲が撮像された画像から精度良く人を検出することができる。   According to at least one embodiment described above, an imaging unit that captures a space of a target for detecting a person, a storage unit that stores a plurality of dictionary information indicating human characteristics, an image captured by the imaging unit, A person information acquisition unit that detects a person from an image based on a plurality of dictionary information and acquires person information indicating the state of the detected person, so that a person can be accurately detected from an image captured over a wide area. Can be detected.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1、1−1、1−2、1−3…画像センサ,11…通信部,12…撮像部,13…辞書情報記憶部,14…人物情報取得部,2…ネットワークハブ,3…ゲートウェイサーバ,4…BEMS(Building Energy Management System),5…機器制御装置,51…通信部,52…人物情報取得部,53…照度情報取得部,54…フロア情報取得部,55…記憶部,56…制御情報生成部,6…可視化装置,7…調整用端末,71…通信部,72…画像収集部,73…記憶部,74…辞書情報生成部,75…パラメータ調整部,10…天井,20…照明機器,30…空調機器,40…機器ネットワーク,50…制御ネットワーク,100−1、100−2、100−3、100−4、100−5…画像,201、202、203…分割領域 DESCRIPTION OF SYMBOLS 1, 1-1, 1-2, 1-3 ... Image sensor, 11 ... Communication part, 12 ... Imaging part, 13 ... Dictionary information storage part, 14 ... Person information acquisition part, 2 ... Network hub, 3 ... Gateway server , 4 ... BEMS (Building Energy Management System), 5 ... Device control device, 51 ... Communication unit, 52 ... Person information acquisition unit, 53 ... Illuminance information acquisition unit, 54 ... Floor information acquisition unit, 55 ... Storage unit, 56 ... Control information generation unit, 6 ... visualization device, 7 ... adjustment terminal, 71 ... communication unit, 72 ... image collection unit, 73 ... storage unit, 74 ... dictionary information generation unit, 75 ... parameter adjustment unit, 10 ... ceiling, 20 ... Lighting equipment, 30 ... Air conditioning equipment, 40 ... Equipment network, 50 ... Control network, 100-1, 100-2, 100-3, 100-4, 100-5 ... Image, 201, 202, 203 ... Divided area

Claims (15)

人を検出する対象の空間を撮像する撮像部と、
人の特徴を示す複数の辞書情報を記憶する記憶部と、
前記撮像部によって撮像された画像と前記複数の辞書情報とに基づいて前記画像から人を検出する検出部と、
を備える画像センサ。
An imaging unit that images a space of a target for detecting a person;
A storage unit for storing a plurality of dictionary information indicating human characteristics;
A detection unit for detecting a person from the image based on the image captured by the imaging unit and the plurality of dictionary information;
An image sensor comprising:
前記記憶部は、前記画像が分割された複数の領域ごとに、前記分割された領域に応じた人の特徴を示す複数の辞書情報を記憶し、
前記検出部は、前記撮像部によって撮像された画像と前記複数の辞書情報とに基づいて、前記分割された複数の領域ごとに人を検出する、
請求項1に記載の画像センサ。
The storage unit stores, for each of a plurality of regions into which the image is divided, a plurality of dictionary information indicating human characteristics according to the divided regions,
The detection unit detects a person for each of the plurality of divided regions based on the image captured by the imaging unit and the plurality of dictionary information.
The image sensor according to claim 1.
前記記憶部は、人の状態を示す複数の辞書情報を記憶し、
前記複数の辞書情報に基づいて、前記検出部によって検出された人の状態を示す人物情報を取得する人物情報取得部をさらに備える、
請求項1又は2に記載の画像センサ。
The storage unit stores a plurality of dictionary information indicating a person's state,
A personal information acquisition unit that acquires personal information indicating the state of the person detected by the detection unit based on the plurality of dictionary information;
The image sensor according to claim 1 or 2.
前記記憶部は、人の全身又は体の部位の特徴を示す複数の辞書情報を記憶し、
前記人物情報取得部は、前記複数の辞書情報に基づいて、人の全身又は一部が撮像された画像から前記人物情報を取得する、
請求項2又は3に記載の画像センサ。
The storage unit stores a plurality of dictionary information indicating characteristics of a person's whole body or body part,
The person information acquisition unit acquires the person information from an image obtained by capturing the whole body or part of a person based on the plurality of dictionary information.
The image sensor according to claim 2.
前記人物情報取得部は、前記複数の辞書情報に基づいて複数の人物情報を並列して取得し、前記複数の辞書情報の優先順位又は重みに応じて、前記複数の人物情報から採用すべき人物情報を決定する、
請求項1から4のいずれか一項に記載の画像センサ。
The person information acquisition unit acquires a plurality of person information in parallel based on the plurality of dictionary information, and a person to be adopted from the plurality of person information according to a priority or weight of the plurality of dictionary information Determine information,
The image sensor according to any one of claims 1 to 4.
前記人物情報取得部は、取得された前記人物情報と、前記複数の辞書情報とに基づいて、新たな人物情報を取得する、
請求項1から5のいずれか一項に記載の画像センサ。
The person information acquisition unit acquires new person information based on the acquired person information and the plurality of dictionary information.
The image sensor as described in any one of Claim 1 to 5.
前記撮像部は、広範囲を撮像可能なレンズを用いて前記空間を撮像し、
前記記憶部は、前記レンズによる歪みに応じて前記画像が分割された複数の領域ごとに、前記分割された領域に応じた人の特徴を示す複数の辞書情報を記憶し、
前記人物情報取得部は、前記複数の辞書に基づいて、歪みを伴って撮像された画像から前記人物情報を取得する、
請求項2から6のいずれか一項に記載の画像センサ。
The imaging unit images the space using a lens capable of imaging a wide range,
The storage unit stores, for each of a plurality of regions into which the image is divided according to distortion by the lens, a plurality of dictionary information indicating human characteristics according to the divided regions,
The person information acquisition unit acquires the person information from an image captured with distortion based on the plurality of dictionaries.
The image sensor according to any one of claims 2 to 6.
人を検出する対象の空間を撮像する撮像部と、人の特徴を示す複数の辞書情報を記憶する記憶部と、を備える画像センサが行う人検出方法であって、
前記撮像部によって撮像された画像と前記複数の辞書情報とに基づいて前記画像から人を検出する検出ステップを有する、
人検出方法。
A human detection method performed by an image sensor comprising: an imaging unit that images a space to be detected by a person; and a storage unit that stores a plurality of dictionary information indicating human characteristics,
A detection step of detecting a person from the image based on the image captured by the imaging unit and the plurality of dictionary information;
Person detection method.
人を検出する対象の空間を撮像する撮像部と、人の特徴を示す複数の辞書情報を記憶する記憶部と、を備える画像センサが行う人検出方法における、
前記撮像部によって撮像された画像と前記複数の辞書情報とに基づいて前記画像から人を検出する検出ステップを、
コンピュータに実行させるためのコンピュータプログラム。
In a human detection method performed by an image sensor including an imaging unit that images a space of a target for detecting a person and a storage unit that stores a plurality of dictionary information indicating characteristics of the person,
A detection step of detecting a person from the image based on the image captured by the imaging unit and the plurality of dictionary information;
A computer program for causing a computer to execute.
請求項1から7のいずれか一項に記載の画像センサと、
前記画像センサが撮像する空間の状態を示す空間情報を取得する空間情報取得部と、
前記画像センサによって取得される前記空間に存在する人の状態を示す人物情報と、前記空間情報取得部が取得する空間情報とに基づいて、前記空間に関する機器を制御するための制御情報を取得する制御部と、
を備える制御システム。
The image sensor according to any one of claims 1 to 7,
A spatial information acquisition unit that acquires spatial information indicating a state of a space captured by the image sensor;
Control information for controlling the device related to the space is acquired based on the personal information indicating the state of the person existing in the space acquired by the image sensor and the spatial information acquired by the spatial information acquisition unit. A control unit;
A control system comprising:
前記制御部は、複数の前記画像センサから取得される人物情報に基づいて、前記制御情報を取得する、
請求項10に記載の制御システム。
The control unit acquires the control information based on person information acquired from a plurality of the image sensors.
The control system according to claim 10.
検出対象となる人が保持する端末装置と通信し、前記端末装置の位置を示す位置情報を前記端末装置から取得する位置情報取得部をさらに備え、
前記空間情報取得部は、前記空間に関する機器の状態を示す情報を空間情報として取得し、
前記画像センサは、撮像した画像において前記位置情報が示す位置に存在する人の人物情報を取得する、
請求項11に記載の制御システム。
It further communicates with a terminal device held by a person to be detected, and further comprises a position information acquisition unit that acquires position information indicating the position of the terminal device from the terminal device,
The spatial information acquisition unit acquires information indicating a state of the device related to the space as spatial information,
The image sensor acquires person information of a person existing at a position indicated by the position information in the captured image;
The control system according to claim 11.
前記画像センサから画像を取得し、取得した画像に基づいて、前記画像センサが人物情報の取得に用いる辞書情報を生成する辞書情報生成部と、
前記画像センサが前記辞書情報生成部によって生成された辞書情報を複数用いて人物情報を取得する際における、前記辞書情報の組み合わせ、優先順位又は重みの推奨値を決定する調整部と、
をさらに備える制御システム。
A dictionary information generating unit that acquires an image from the image sensor and generates dictionary information used by the image sensor to acquire person information based on the acquired image;
When the image sensor acquires person information using a plurality of dictionary information generated by the dictionary information generating unit, an adjustment unit that determines a combination value of the dictionary information, a priority or a recommended value of weight,
A control system further comprising:
請求項1から7のいずれか一項に記載の画像センサを備える制御システムが行う制御方法であって、
前記画像センサが撮像する空間の状態を示す空間情報を取得する空間情報取得ステップと、
前記画像センサによって取得される前記空間に存在する人の状態を示す人物情報と、前記空間情報取得ステップにおいて取得される空間情報とに基づいて、前記空間に関する機器を制御するための制御情報を取得する制御ステップと、
を有する制御方法。
A control method performed by a control system including the image sensor according to claim 1,
A spatial information acquisition step of acquiring spatial information indicating a state of a space captured by the image sensor;
Acquire control information for controlling a device related to the space based on the personal information indicating the state of a person existing in the space acquired by the image sensor and the spatial information acquired in the spatial information acquisition step. A control step to
A control method.
請求項1から7のいずれか一項に記載の画像センサを備える制御システムが行う制御方法における、
前記画像センサが撮像する空間の状態を示す空間情報を取得する空間情報取得ステップと、
前記画像センサによって取得される前記空間に存在する人の状態を示す人物情報と、前記空間情報取得ステップにおいて取得される空間情報とに基づいて、前記空間に関する機器を制御するための制御情報を取得する制御ステップと、
をコンピュータに実行させるためのコンピュータプログラム。
In the control method which a control system provided with the image sensor as described in any one of Claim 1 to 7 performs.
A spatial information acquisition step of acquiring spatial information indicating a state of a space captured by the image sensor;
Acquire control information for controlling a device related to the space based on the personal information indicating the state of a person existing in the space acquired by the image sensor and the spatial information acquired in the spatial information acquisition step. A control step to
A computer program for causing a computer to execute.
JP2015051318A 2015-03-13 2015-03-13 Image sensor, person detection method, control system, control method, and computer program Pending JP2016171526A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015051318A JP2016171526A (en) 2015-03-13 2015-03-13 Image sensor, person detection method, control system, control method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015051318A JP2016171526A (en) 2015-03-13 2015-03-13 Image sensor, person detection method, control system, control method, and computer program

Publications (1)

Publication Number Publication Date
JP2016171526A true JP2016171526A (en) 2016-09-23

Family

ID=56984228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015051318A Pending JP2016171526A (en) 2015-03-13 2015-03-13 Image sensor, person detection method, control system, control method, and computer program

Country Status (1)

Country Link
JP (1) JP2016171526A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019080177A (en) * 2017-10-25 2019-05-23 株式会社東芝 Image sensor, person detection method, program, and control system
JP2019087787A (en) * 2017-11-01 2019-06-06 株式会社東芝 Image sensor, sensing method, control system, and program
CN110008806A (en) * 2017-12-27 2019-07-12 本田技研工业株式会社 Storage medium, learning processing method, learning device and object identification device
JP2019159739A (en) * 2018-03-13 2019-09-19 キヤノン株式会社 Image processing device, image processing method, and program
JP2019204165A (en) * 2018-05-21 2019-11-28 株式会社東芝 Image sensor, identification method, control system and program
JP2019212148A (en) * 2018-06-07 2019-12-12 富士ゼロックス株式会社 Information processing device and information processing program
WO2020008726A1 (en) * 2018-07-02 2020-01-09 コニカミノルタ株式会社 Target object detection program and target object detection device
JP2020053768A (en) * 2018-09-25 2020-04-02 株式会社東芝 Image sensor system, control method, gateway unit and computer program
JP2020154552A (en) * 2019-03-19 2020-09-24 株式会社リコー Behavior recognition device, behavior recognition method, and program
JP2020201880A (en) * 2019-06-13 2020-12-17 富士通クライアントコンピューティング株式会社 Image processing apparatus and image processing program
CN112484734A (en) * 2020-12-08 2021-03-12 中国矿业大学 Feature-based extraction of adaptive neural networks and CO2Indoor personnel positioning method
WO2021157213A1 (en) * 2020-02-07 2021-08-12 オムロン株式会社 Image processing device and image processing method
JP2021135665A (en) * 2020-02-26 2021-09-13 パナソニックIpマネジメント株式会社 Person detection system
JP2022033202A (en) * 2017-10-25 2022-02-28 株式会社東芝 Image sensor, moving body detection method, program, and control system
CN115280395A (en) * 2020-03-31 2022-11-01 株式会社小松制作所 Detection system and detection method
WO2023228620A1 (en) * 2022-05-26 2023-11-30 株式会社日立製作所 Cooperative work recognition system and cooperative work recognition method
DE112022002323T5 (en) 2021-04-26 2024-02-22 Omron Corporation RECOGNITION APPARATUS, CONTROL METHOD FOR RECOGNITION APPARATUS, METHOD FOR MODEL GENERATION BY MODEL GENERATION APPARATUS WHICH GENERATES A TRAINED MODEL, INFORMATION PROCESSING PROGRAM AND RECORDING MEDIUM
JP7463582B2 (en) 2018-07-09 2024-04-08 株式会社東芝 Sensing system, maintenance terminal device, data distribution method, and image sensor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011075248A (en) * 2009-10-01 2011-04-14 Mitsubishi Electric Corp Environment control system
JP2011100175A (en) * 2009-11-04 2011-05-19 Nippon Hoso Kyokai <Nhk> Device and program for deciding personal action
JP2012230546A (en) * 2011-04-26 2012-11-22 Hitachi Information & Communication Engineering Ltd Object recognition method and recognition device
JP2013027211A (en) * 2011-07-22 2013-02-04 Toshiba Corp Electric equipment control system and electric equipment control apparatus
JP2014229010A (en) * 2013-05-21 2014-12-08 株式会社デンソー Object detector

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011075248A (en) * 2009-10-01 2011-04-14 Mitsubishi Electric Corp Environment control system
JP2011100175A (en) * 2009-11-04 2011-05-19 Nippon Hoso Kyokai <Nhk> Device and program for deciding personal action
JP2012230546A (en) * 2011-04-26 2012-11-22 Hitachi Information & Communication Engineering Ltd Object recognition method and recognition device
JP2013027211A (en) * 2011-07-22 2013-02-04 Toshiba Corp Electric equipment control system and electric equipment control apparatus
JP2014229010A (en) * 2013-05-21 2014-12-08 株式会社デンソー Object detector

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7286747B2 (en) 2017-10-25 2023-06-05 株式会社東芝 Image sensor, motion detection method, program and control system
JP7002912B2 (en) 2017-10-25 2022-01-20 株式会社東芝 Image sensors, person detection methods, programs and control systems
JP2019080177A (en) * 2017-10-25 2019-05-23 株式会社東芝 Image sensor, person detection method, program, and control system
JP2022033202A (en) * 2017-10-25 2022-02-28 株式会社東芝 Image sensor, moving body detection method, program, and control system
JP2019087787A (en) * 2017-11-01 2019-06-06 株式会社東芝 Image sensor, sensing method, control system, and program
JP7005285B2 (en) 2017-11-01 2022-01-21 株式会社東芝 Image sensors, sensing methods, control systems and programs
JP2019117577A (en) * 2017-12-27 2019-07-18 本田技研工業株式会社 Program, learning processing method, learning model, data structure, learning device and object recognition device
CN110008806B (en) * 2017-12-27 2022-11-08 本田技研工业株式会社 Information processing device, learning processing method, learning device, and object recognition device
US10733705B2 (en) 2017-12-27 2020-08-04 Honda Motor Co., Ltd. Information processing device, learning processing method, learning device, and object recognition device
CN110008806A (en) * 2017-12-27 2019-07-12 本田技研工业株式会社 Storage medium, learning processing method, learning device and object identification device
JP7059054B2 (en) 2018-03-13 2022-04-25 キヤノン株式会社 Image processing equipment, image processing methods and programs
JP2019159739A (en) * 2018-03-13 2019-09-19 キヤノン株式会社 Image processing device, image processing method, and program
JP2019204165A (en) * 2018-05-21 2019-11-28 株式会社東芝 Image sensor, identification method, control system and program
JP6991922B2 (en) 2018-05-21 2022-01-13 株式会社東芝 Image sensors, identification methods, control systems and programs
JP2019212148A (en) * 2018-06-07 2019-12-12 富士ゼロックス株式会社 Information processing device and information processing program
JP7230345B2 (en) 2018-06-07 2023-03-01 富士フイルムビジネスイノベーション株式会社 Information processing device and information processing program
JPWO2020008726A1 (en) * 2018-07-02 2021-07-08 コニカミノルタ株式会社 Target object detection program and target object detection device
WO2020008726A1 (en) * 2018-07-02 2020-01-09 コニカミノルタ株式会社 Target object detection program and target object detection device
JP7243725B2 (en) 2018-07-02 2023-03-22 コニカミノルタ株式会社 Target object detection program and target object detection device
JP7463582B2 (en) 2018-07-09 2024-04-08 株式会社東芝 Sensing system, maintenance terminal device, data distribution method, and image sensor
JP2020053768A (en) * 2018-09-25 2020-04-02 株式会社東芝 Image sensor system, control method, gateway unit and computer program
JP7309337B2 (en) 2018-09-25 2023-07-18 株式会社東芝 Image sensor system, control method, gateway device and computer program
JP7338182B2 (en) 2019-03-19 2023-09-05 株式会社リコー Action recognition device, action recognition method and program
JP2020154552A (en) * 2019-03-19 2020-09-24 株式会社リコー Behavior recognition device, behavior recognition method, and program
JP2020201880A (en) * 2019-06-13 2020-12-17 富士通クライアントコンピューティング株式会社 Image processing apparatus and image processing program
WO2021157213A1 (en) * 2020-02-07 2021-08-12 オムロン株式会社 Image processing device and image processing method
JP2021135665A (en) * 2020-02-26 2021-09-13 パナソニックIpマネジメント株式会社 Person detection system
CN115280395A (en) * 2020-03-31 2022-11-01 株式会社小松制作所 Detection system and detection method
CN112484734A (en) * 2020-12-08 2021-03-12 中国矿业大学 Feature-based extraction of adaptive neural networks and CO2Indoor personnel positioning method
DE112022002323T5 (en) 2021-04-26 2024-02-22 Omron Corporation RECOGNITION APPARATUS, CONTROL METHOD FOR RECOGNITION APPARATUS, METHOD FOR MODEL GENERATION BY MODEL GENERATION APPARATUS WHICH GENERATES A TRAINED MODEL, INFORMATION PROCESSING PROGRAM AND RECORDING MEDIUM
WO2023228620A1 (en) * 2022-05-26 2023-11-30 株式会社日立製作所 Cooperative work recognition system and cooperative work recognition method

Similar Documents

Publication Publication Date Title
JP2016171526A (en) Image sensor, person detection method, control system, control method, and computer program
US9036866B2 (en) Image-based occupancy sensor
JP5726792B2 (en) Information processing apparatus, image sensor apparatus, and program
JP5971568B2 (en) Electric equipment control system, image sensor and server device
CN108781267B (en) Image processing apparatus and method
US9295141B2 (en) Identification device, method and computer program product
JP2014017114A (en) Illumination system
WO2020137193A1 (en) Human detection device and human detection method
CN109996379B (en) Light control method and device
US20210400167A1 (en) Methods and systems for colorizing infrared images
JP6316102B2 (en) Adjustment terminal, adjustment method, and computer program
TWI428508B (en) Controlling system, method for fans, and fan including the same
KR20190099216A (en) RGBD detection based object detection system and method
WO2019087742A1 (en) Image sensor, sensing method, control system and program
JP7074174B2 (en) Discriminator learning device, discriminator learning method and computer program
EP3529788B1 (en) Presence detection system and method
JP6495691B2 (en) Moving object detection device, moving object detection method, and computer program
WO2017119336A1 (en) Lighting control system, lighting control method, lighting control device, and computer program
JP2015204532A (en) Image processing apparatus and imaging device
JP6495696B2 (en) Image collecting apparatus, image collecting method, and computer program
US20210035334A1 (en) Systems and Methods for Implementing a Sensor Based Real Time Tracking System
JP2020071717A (en) Information processing device, information processing method, and program
JP2017138922A (en) Image sensor and learning method
WO2019082652A1 (en) Image sensor, person detection method, program, and control system
JP7286747B2 (en) Image sensor, motion detection method, program and control system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170911

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170911

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181009

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190305