JP2016171526A - Image sensor, person detection method, control system, control method, and computer program - Google Patents
Image sensor, person detection method, control system, control method, and computer program Download PDFInfo
- Publication number
- JP2016171526A JP2016171526A JP2015051318A JP2015051318A JP2016171526A JP 2016171526 A JP2016171526 A JP 2016171526A JP 2015051318 A JP2015051318 A JP 2015051318A JP 2015051318 A JP2015051318 A JP 2015051318A JP 2016171526 A JP2016171526 A JP 2016171526A
- Authority
- JP
- Japan
- Prior art keywords
- person
- information
- image
- image sensor
- dictionary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明の実施形態は、画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラムに関する。 Embodiments described herein relate generally to an image sensor, a human detection method, a control system, a control method, and a computer program.
画像から動体を検出する一般的な手法の一つとして、画像の輝度変化に基づいて動体を検出するフレーム間差分法がある。フレーム間差分法は、連続して取得される画像間の差分を取得し、変化があった領域の被写体を動体として検出する手法である。このような動体検出の結果に基づいて、人を検出する技術が提案されている。
しかしながら、オフィスなどにカメラを設置した場合、人の動きだけでなく、外光や照明による空間の明るさの変化によって画像の輝度変化が生じる場合がある。そのため、実際には人が存在しないにも関わらず、人を誤検出する可能性がある。この問題を解決するため、人の代表的な行動や挙動を学習し、動体が人であるか否かを識別する技術が提案されている。
One common method for detecting a moving object from an image is an inter-frame difference method for detecting a moving object based on a change in luminance of the image. The inter-frame difference method is a method of acquiring a difference between images acquired continuously and detecting a subject in a region where the change has occurred as a moving object. A technique for detecting a person based on the result of such moving object detection has been proposed.
However, when a camera is installed in an office or the like, the luminance of an image may change due to changes in the brightness of the space caused by external light or illumination as well as human movement. Therefore, there is a possibility that a person is erroneously detected even though no person actually exists. In order to solve this problem, a technique has been proposed in which representative behavior and behavior of a person are learned and whether or not a moving object is a person is identified.
しかしながら、このような従来技術は、人が十分な大きさで撮像されることを前提としている。このような前提では、検出対象の空間の広さによっては多くのカメラが必要となる。これに対して、広範囲の撮像が可能な魚眼レンズや超広角レンズを持つカメラがあるが、広範囲が撮像された画像は、レンズの歪みや被写体との距離に応じて被写体の写り方が大きく異なる。そのため、広範囲が撮像された画像から精度良く人を検出することが困難であった。 However, such a conventional technique is based on the premise that a person is imaged with a sufficient size. Under such a premise, many cameras are required depending on the size of the space to be detected. On the other hand, there are cameras with fish-eye lenses and super-wide-angle lenses that can capture a wide range of images. Images captured over a wide range vary greatly in how the subject is captured depending on lens distortion and the distance from the subject. For this reason, it has been difficult to accurately detect a person from an image in which a wide range has been captured.
本発明が解決しようとする課題は、広範囲が撮像された画像から精度良く人を検出することができる画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラムを提供することである。 The problem to be solved by the present invention is to provide an image sensor, a person detection method, a control system, a control method, and a computer program that can accurately detect a person from an image captured over a wide range.
実施形態の画像センサは、撮像部と、記憶部と、検出部と、を持つ。撮像部は、人を検出する対象の空間を撮像する。記憶部は、人の特徴を示す複数の辞書情報を記憶する。検出部は、前記撮像部によって撮像された画像と前記複数の辞書情報とに基づいて前記画像から人を検出する。 The image sensor according to the embodiment includes an imaging unit, a storage unit, and a detection unit. An imaging part images the space of the object which detects a person. The storage unit stores a plurality of dictionary information indicating human characteristics. The detection unit detects a person from the image based on the image captured by the imaging unit and the plurality of dictionary information.
以下、実施形態の画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラムを、図面を参照して説明する。 Hereinafter, an image sensor, a human detection method, a control system, a control method, and a computer program according to embodiments will be described with reference to the drawings.
(実施形態)
図1は、実施形態の画像センサ1の利用例を示す図である。
図1は、画像センサ1が、オフィスフロアの機器の制御に用いられた例を示す。図1の例の場合、照明機器20及び空調機器30が制御対象の機器である。画像センサ1は、オフィスフロアの天井10に設置され、オフィスフロアを撮像する。画像センサ1は、撮像した画像から環境情報や人物情報を取得する。環境情報は、撮像対象の空間(以下、「対象空間」という。)の環境に関する情報である。例えば、環境情報は、オフィスの照度や温度などを示す情報である。人物情報は、対象空間における人に関する情報である。例えば、人物情報は、人の在又は不在や人数、人の行動、人の活動量などを示す情報である。人物情報を取得するため、画像センサ1は、取得した画像を解析して人を検出する。画像センサ1は、取得した環境情報や人物情報を、照明機器20及び空調機器30を制御する制御装置に送信する。制御装置は、画像センサ1によって取得された環境情報や人物情報に基づいて、照明機器20及び空調機器30を制御するための制御情報を生成する。制御装置は、生成した制御情報を照明機器20及び空調機器30に送信する。照明機器20及び空調機器30が、制御装置から送信された制御情報に基づいて自装置を動作させる。このような制御によって、環境情報や人物情報に基づく機器の制御が実現される。
(Embodiment)
FIG. 1 is a diagram illustrating a usage example of the image sensor 1 of the embodiment.
FIG. 1 shows an example in which the image sensor 1 is used to control equipment on an office floor. In the case of the example in FIG. 1, the
例えば、人物情報として人の在又は不在を示す情報が取得される場合、制御装置は、人が居るエリアでは空調及び照明をONにし、人が居ないエリアでは空調及び照明をOFFにする、又は出力を下げるように空調及び照明を制御することができる。また、人が存在する場合には、タスク照明をONにするような制御も考えられる。また、デスクや通路など、人が検出された場所に応じてアンビエント照明の調光率を変化させるような制御も考えられる。 For example, when information indicating the presence or absence of a person is acquired as person information, the control device turns on air conditioning and lighting in an area where there is a person, and turns off air conditioning and lighting in an area where there is no person, or Air conditioning and lighting can be controlled to reduce output. In addition, when there is a person, control that turns on task lighting is also conceivable. In addition, control such as changing the dimming rate of the ambient lighting according to a place where a person is detected, such as a desk or a passage, can be considered.
また、例えば、人物情報として人の活動量を示す情報が取得される場合、制御装置は、活動量が小さい場合にはデスクワークをしている人が多いと判断して空調の出力を弱め、活動量が大きい場合には人が活発に活動していると判断して空調の出力を強めるように空調を制御することができる。また、例えば、人物情報として人の分布を示す情報が取得される場合、人の分布に応じてフロア内の照明の調光率を変化させるように照明を制御することができる。 Also, for example, when information indicating the amount of activity of a person is acquired as personal information, the control device determines that there are many people who are doing desk work when the amount of activity is small, and reduces the output of air conditioning. When the amount is large, it can be determined that the person is actively active and the air conditioning can be controlled to increase the output of the air conditioning. Further, for example, when information indicating a person distribution is acquired as the person information, the lighting can be controlled so as to change the dimming rate of the lighting in the floor according to the person distribution.
近年、上述したような画像センサを始め、様々なセンサのセンシング結果を利用して、機器の省エネルギー化を図る取り組みが行われている。中でも、画像センサは、人感センサや明かりセンサと比較して多種多様な情報を取得できる。さらに、魚眼レンズや超広角レンズなどを備える場合、画像センサは1台で広範囲の情報を取得することができる。このように、広範囲が撮像された画像から人に関する情報を精度良く取得することができれば、省エネルギーと快適性とを両立するきめ細やかな制御が可能となる。実施形態の画像センサ1は、人の代表的な行動や挙動を学習することで、人に関する情報の取得をより精度良く行う。 In recent years, efforts have been made to save energy of devices using sensing results of various sensors including the above-described image sensors. Among them, the image sensor can acquire a wide variety of information as compared with the human sensor and the light sensor. Furthermore, when a fish-eye lens, a super-wide-angle lens, or the like is provided, a single image sensor can acquire a wide range of information. As described above, if information about a person can be acquired with high accuracy from an image captured over a wide range, fine control that achieves both energy saving and comfort is possible. The image sensor 1 according to the embodiment acquires information about a person with higher accuracy by learning representative actions and behaviors of the person.
図2は、実施形態の画像センサ1を用いた機器制御システムの構成を示すシステム構成図である。
図2の機器制御システムは、複数の画像センサ1−1〜1−3を備える。画像センサ1−1〜1−3は、画像から取得した人物情報や環境情報(以下、「検知情報」という。)をネットワークハブ2を介して、ゲートウェイサーバ3に送信する。ゲートウェイサーバ3は、各画像センサ1から送信された人物情報や環境情報を、BEMS(Building Energy Management System)4や機器制御装置5、可視化装置6、調整用端末7などに送信する。
FIG. 2 is a system configuration diagram illustrating a configuration of a device control system using the image sensor 1 of the embodiment.
The device control system of FIG. 2 includes a plurality of image sensors 1-1 to 1-3. The image sensors 1-1 to 1-3 transmit personal information and environment information (hereinafter referred to as “detection information”) acquired from the images to the
BEMS4は、センサなどから建物の使用エネルギーや室内環境を示す情報を取得し、これを省エネルギーに役立てるための分析や診断を行う。 The BEMS 4 acquires information indicating the energy used in the building and the indoor environment from a sensor or the like, and performs analysis and diagnosis to make use of this information for energy saving.
機器制御装置5は、検知情報に基づいて、制御対象の機器を最適に制御するための制御情報を生成する。機器制御装置5は、生成した制御情報を送信することで、制御対象の機器を制御する。機器制御装置5の制御対象となる機器は、例えば、空調機器や、照明機器、エレベータなどの機器である。
The
可視化装置6は、機器制御システムの情報を可視化する装置である。例えば、可視化装置6は、BEMS4による分析や診断の結果を取得して、建物の使用エネルギーや室内環境などを可視化する。
The
調整用端末7は、画像センサ1と通信し、画像センサ1の各種設定や調整を行うための調整プログラムがインストールされた端末である。例えば、調整用端末7は、PC(Personal Computer)やスマートフォン、タブレットなどの情報端末である。なお、調整プログラムは、画像センサ1と通信可能であれば、調整用端末7以外の他の装置にインストールされてもよい。
The
ネットワークハブ2及び調整用端末7は機器ネットワーク40に接続され、BEMS4、機器制御装置5及び可視化装置6は制御ネットワーク50に接続される。例えば、制御ネットワーク50はEthernet(登録商標)などのネットワークであり、制御ネットワーク50は、BACnetIPネットワークである。機器ネットワーク40に接続された装置と、制御ネットワーク50に接続された装置との通信は、ゲートウェイサーバ3のプロトコル変換により中継される。
The
なお、機器ネットワーク40及び制御ネットワーク50は、各ネットワーク間の通信が可能であれば、上記と異なるネットワークであってもよい。例えば、機器ネットワーク40及び制御ネットワーク50は、特定用途に規格化された産業用Ethernet(登録商標)などのネットワークであってもよいし、独自プロトコルのネットワークであってもよい。また、機器ネットワーク40及び制御ネットワーク50は、同一のネットワークであってもよい。
The
図3は、実施形態の画像センサ1の機能構成を示す機能ブロック図である。
画像センサ1は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、画像センサプログラムを実行する。画像センサ1は、画像センサプログラムの実行によって通信部11、撮像部12、辞書情報記憶部13及び人物情報取得部14を備える装置として機能する。なお、画像センサ1の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。画像センサプログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。画像センサプログラムは、電気通信回線を介して送信されてもよい。
FIG. 3 is a functional block diagram illustrating a functional configuration of the image sensor 1 according to the embodiment.
The image sensor 1 includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes an image sensor program. The image sensor 1 functions as an apparatus including the
通信部11は、自装置をネットワークハブ2に接続するための通信インターフェースを用いて構成される。通信部11は、ネットワークハブ2を介して、機器ネットワーク40及び制御ネットワーク50に接続された各種装置と通信する。
The
撮像部12は、カメラ等の撮像装置を用いて構成される。撮像部12は、制御対象の機器についての検知情報が取得可能な位置及び向きに設置される。撮像部12は、設置位置と向きに応じた空間を撮像し、画像データを取得する。撮像部12は、取得した画像データを人物情報取得部14に出力する。
The
辞書情報記憶部13は、人物情報の取得に用いられる複数の辞書情報を記憶する。辞書情報とは、画像から抽出された特徴量と、画像の各種特徴との対応を示す情報である。辞書情報は、予め撮像された画像(以下、「事前画像」という。)に基づいて生成され、予め辞書情報記憶部13に記憶される。以下、この辞書情報の生成及び記憶を学習と呼ぶ。
The dictionary
人物情報取得部14(検出部及び人物情報取得部)は、撮像部12から画像データを取得する。人物情報取得部14は、各種の辞書情報に基づいて、取得した画像データから人物情報を取得する。人物情報取得部14は、例えば、“歩く”、“話す”、“PC作業”などの人の動作や、“顔の向き”、“立位”、“座位”などの人の姿勢などを示す情報を人物情報として取得する。人物情報取得部14は、取得した人物情報を、BEMS4や機器制御装置5、可視化装置6に送信する。
The person information acquisition unit 14 (detection unit and person information acquisition unit) acquires image data from the
図4は、画像センサ1が人物情報を取得する処理の流れを示すフローチャートである。
まず、撮像部12が、人を検出する対象の空間を撮像し、画像データを取得する(ステップS101)。撮像部12は、取得した画像データを人物情報取得部14に出力する。
FIG. 4 is a flowchart showing a flow of processing in which the image sensor 1 acquires person information.
First, the
人物情報取得部14は、撮像部12から画像データを取得する。人物情報取得部14は、取得した画像データに基づいて、画像から動体を検出する。例えば、人物情報取得部14は、フレーム間差分法により画像から動体を検出する。人物情報取得部14は、検出した動体の領域の画像の特徴量を抽出する(ステップS102)。ここで抽出する特徴量には、特許文献2に記載された累積差分などの輝度変化に関する特徴量や、特許文献3に記載されたCoHOG(Co-occurrence Histograms of Oriented Gradients)などの輝度分布に関する特徴量が用いられてもよい。
The person
また、人物情報取得部14は、辞書情報記憶部13から辞書情報を取得する。人物情報取得部14は、動体領域の特徴量と辞書情報とに基づいて、動体が人であるか否を判定するとともに、検出した人の動作や姿勢などを識別する(ステップS103)。人の動作や姿勢などを識別する手法には、ニューラルネットワークやSVM(Support Vector Machine)、k近傍識別器、ベイズ分類などの手法が用いられてもよい。人物情報取得部14は、判定結果を人物情報としてBEMS4や機器制御装置5、可視化装置6に送信する(ステップS104)。
The person
なお、上記の識別に用いられる辞書情報は、識別対象となる事象が撮像された複数の画像に基づいて予め生成される。辞書情報の生成に用いられる画像は、画像センサ1によって取得された画像であってもよいし、他の撮像装置によって撮像された画像であってもよい。また、辞書情報の生成に用いられる画像は、画像センサ1の設置位置において撮像された画像であってもよいし、他の場所で撮像された画像であってもよい。 Note that the dictionary information used for the above identification is generated in advance based on a plurality of images in which an event to be identified is captured. The image used for generating the dictionary information may be an image acquired by the image sensor 1 or an image captured by another imaging device. Further, the image used for generating the dictionary information may be an image captured at the installation position of the image sensor 1 or an image captured at another location.
また、画像センサ1の検出性能は、辞書情報の質によって左右される。そして、辞書情報の質を高めるためには、大量の事前画像が必要となる。しかしながら、大量の事前画像を取得する作業は、非常に多くの労力を要する作業である。そのため、撮像によって新たな事前画像を取得するのではなく、既に取得された事前画像を加工して新たな事前画像を疑似的に生成してもよい。辞書情報は、このように疑似的に生成された画像に基づいて生成された情報であってもよい。辞書情報をこのような方法で生成することによって、少ない労力で辞書情報の質を高めることができる。事前画像の加工は、例えば、画像の回転、解像度の変更、抽出、抽出位置の変更などの操作である。 Further, the detection performance of the image sensor 1 depends on the quality of dictionary information. And in order to improve the quality of dictionary information, a large amount of prior images are required. However, the work of acquiring a large amount of preliminary images is a work that requires a great deal of labor. Therefore, instead of acquiring a new preliminary image by imaging, a new preliminary image may be generated in a pseudo manner by processing a previously acquired preliminary image. The dictionary information may be information generated based on the image generated in a pseudo manner in this way. By generating the dictionary information by such a method, the quality of the dictionary information can be improved with little effort. The pre-image processing is, for example, operations such as image rotation, resolution change, extraction, and extraction position change.
また、人物情報取得部14は、識別対象となる動作や姿勢に応じて、複数の辞書情報を用いてもよい。また、人物情報取得部14は、識別対象となる動作や姿勢に応じて、識別に用いる辞書情報の種類や組み合わせを変更してもよい。また、複数の辞書情報に基づくそれぞれの識別処理は、並列に処理されてもよいし、直列に処理されてもよい。また、特徴量の抽出や識別処理は、各画素を単位として行われてもよいし、画像から抽出される領域を単位として行われてもよい。この場合、特徴量の抽出や識別処理は、外接矩形など、抽出された領域を包含する領域を単位として行われてもよい。また、複数の辞書情報に応じて、異なる処理単位が用いられてもよい。
In addition, the person
図5及び図6は、画像センサ1が取得する画像の具体例を示す図である。
画像内の被写体は、レンズの特性によって歪んで撮像される。画像の歪みは、広範囲を撮像可能なレンズを用いて撮像された画像においてより顕著に表れる。例えば、図5は、魚眼レンズを用いて撮像された画像の例である。図5の画像は、部屋の天井に設置されたカメラが床を見下ろすようにして室内を撮像した画像である。魚眼レンズを用いて撮像した場合、撮像領域の画像は図5のような円形となる。図5の画像から、画像の中心付近は歪みが小さく、画像の中心から離れるにつれ画像の歪みが大きくなっていることが分かる。
5 and 6 are diagrams illustrating specific examples of images acquired by the image sensor 1.
The subject in the image is imaged with distortion due to the characteristics of the lens. Image distortion appears more prominently in an image captured using a lens capable of capturing a wide range. For example, FIG. 5 is an example of an image captured using a fisheye lens. The image in FIG. 5 is an image obtained by capturing an image of the room as the camera installed on the ceiling of the room looks down on the floor. When an image is captured using a fisheye lens, the image of the imaging region is circular as shown in FIG. From the image of FIG. 5, it can be seen that the distortion near the center of the image is small, and the distortion of the image increases as the distance from the center of the image increases.
また、被写体は、カメラからの距離に応じて異なる大きさで撮像される。カメラに近い被写体ほどより大きく撮像され、カメラから遠い被写体ほどより小さく撮像される。また、図6の例のように、同じ被写体であっても撮像時の位置に応じて画像への映り方が大きく異なる。例えば、図6の画像100−1は人を正面から撮像した画像である。画像100−2は人を真上から撮像した画像である。画像100−3は、人の側面を斜め上方から撮像した画像である。画像100−4は、人の正面を斜め前方から撮像した画像である。画像100−5は、人の背面を斜め後方から撮像した画像である。 Also, the subject is imaged with different sizes depending on the distance from the camera. A subject closer to the camera is imaged larger, and a subject farther from the camera is imaged smaller. Further, as in the example of FIG. 6, even in the same subject, the way the image is reflected varies greatly depending on the position at the time of imaging. For example, an image 100-1 in FIG. 6 is an image obtained by capturing a person from the front. An image 100-2 is an image obtained by imaging a person from directly above. The image 100-3 is an image obtained by capturing an image of a human side from an obliquely upper side. An image 100-4 is an image obtained by capturing the front of a person from an oblique front. The image 100-5 is an image obtained by imaging the back of a person from obliquely behind.
辞書情報記憶部13は、このような画像の歪みや大きさ、写り方などの違いを識別するために、複数の辞書情報を記憶する。事前画像から取得される特徴量が、これらの違いに対応する各種特徴と対応づけられることにより、人物情報取得部14は、検出した人についてのこれらの違いを、複数の辞書情報に基づいて識別することができる。
The dictionary
以下、複数の辞書情報に基づいて人物情報を取得する具体例を説明する。 Hereinafter, a specific example in which person information is acquired based on a plurality of dictionary information will be described.
[第1の具体例]
第1の具体例は、レンズの歪みに応じた形状に画像を分割し、分割した領域ごとの辞書情報に基づいて人物情報を取得する方法である。例えば、図5に示した画像の場合、次の図7のように画像を分割する。
[First specific example]
The first specific example is a method of dividing an image into a shape corresponding to the distortion of the lens and acquiring person information based on dictionary information for each divided area. For example, in the case of the image shown in FIG. 5, the image is divided as shown in FIG.
図7は、レンズの歪みに応じて分割された画像の具体例を示す図である。
魚眼レンズを用いて撮像された画像の場合、撮像領域の中心からの距離に応じた領域に分割する。図7の例の場合、画像は、分割領域201、202、203に分割され、辞書情報記憶部13には、それぞれの分割領域ごとの辞書情報が記憶される。ここでは、分割領域201、202、203に対応する辞書情報を、辞書情報1、辞書情報2、辞書情報3と記載する。
FIG. 7 is a diagram illustrating a specific example of an image divided according to lens distortion.
In the case of an image captured using a fisheye lens, the image is divided into regions according to the distance from the center of the imaging region. In the case of the example in FIG. 7, the image is divided into divided
辞書情報1は、分割領域201と同様に撮像された人の事前画像に基づいて生成される。このように生成される辞書情報1を用いることによって、人物情報取得部14は、図6の例のように、人の頭部が大きく映り全身はほとんど映らないような画像から人物情報を取得することができる。
The dictionary information 1 is generated based on a person's prior image captured in the same manner as the divided
辞書情報2は、分割領域202と同様に撮像された人の事前画像に基づいて生成される。このように生成される辞書情報2を用いることによって、人物情報取得部14は、図6の例のように、人の全身が斜め上方から撮像された画像から人物情報を取得することができる。
The
辞書情報3は、分割領域203と同様に撮像された人の事前画像に基づいて生成される。このように生成される辞書情報3を用いることによって、人物情報取得部14は、図6の例のように、カメラから遠い人のほぼ正面が撮像された画像から人物情報を取得することができる。
The
なお、上述したように、レンズの歪みによって、カメラから遠い人ほど小さく撮像されてしまうため、分割領域は、レンズの特性に応じて任意に設定されてよい。また、各分割領域の境界付近に人が検出された場合は、人物情報取得部14は、隣接する2つの分割領域に対応する辞書情報を用いて人物情報を取得してもよい。この場合、所定の優先順位に基づいて、いずれか一方の辞書情報に基づいて取得された人物情報を採用してもよいし、所定の重みに基づいて、両方の辞書情報に基づいて取得された人物情報を組み合わせて採用してもよい。上記の優先順位や重みは、例えば、人物が検出された領域の面積比に応じて決定されてもよい。この場合、画像の歪みを考慮して人物が検出された領域の面積を補正し、補正後の面積比を用いるようにしてもよい。
Note that, as described above, the farther away from the camera, the smaller the image is captured due to distortion of the lens, so the divided areas may be arbitrarily set according to the characteristics of the lens. When a person is detected near the boundary between the divided areas, the person
[第2の具体例]
画像から人物情報を取得する際の問題として、人の一部が他の物体に隠れて撮像されることが挙げられる。このような場合、人の全身が撮像された画像に基づいて生成された辞書情報(以下、「全身辞書」という。)のみでは精度良く人物情報を取得することができない可能性がある。そのため、第2の具体例では、全身辞書と、体の部位に応じて生成された辞書情報とを組み合わせて人物情報を取得する。
[Second specific example]
A problem in acquiring person information from an image is that a part of a person is captured while being hidden by another object. In such a case, there is a possibility that the person information cannot be obtained with high accuracy only by using dictionary information (hereinafter referred to as “whole body dictionary”) generated based on an image of the whole body of a person. Therefore, in the second specific example, the person information is acquired by combining the whole body dictionary and the dictionary information generated according to the body part.
例えば、エレベータホールや廊下、机が少ない打ち合わせスペースなど見通しがよい空間では人の全身が撮像される可能性が高い。これに対して、オフィスなどでは、机やロッカー、椅子、モニタなどのオフィス機器に隠れて撮像される場合がある。そのため、このような場合、例えば、全身辞書に、人の上半身が撮像された画像に基づいて生成された辞書情報(以下、「上半身辞書」という。)や、人の頭部が撮像された画像に基づいて生成された辞書情報(以下、「頭部辞書」という。)など、体の部位に応じて生成された辞書情報を組み合わせることで、人物情報を精度良く取得することができる。 For example, there is a high possibility that a person's whole body is imaged in a space with good visibility such as an elevator hall, a hallway, and a meeting space with few desks. On the other hand, in an office or the like, there is a case where an image is hidden behind an office device such as a desk, a locker, a chair, or a monitor. Therefore, in such a case, for example, dictionary information generated based on an image in which the upper body of a person is captured in a whole body dictionary (hereinafter referred to as “upper body dictionary”) or an image in which the head of a person is captured. The person information can be obtained with high accuracy by combining the dictionary information generated according to the body part, such as the dictionary information generated based on (hereinafter referred to as “head dictionary”).
この場合、辞書情報は、人の動作や姿勢などの識別対象となる事象が撮像された複数の画像に、体の各部位(全身、上半身又は頭部)に当たる領域を対応づけることで生成される。画像と体の部位との対応づけは、人手で行ってもよいし、自動で行ってもよい。対応づけを自動で行う場合、例えば、撮像領域におけるレンズ中心と、全身に対応する領域とを設定することで、全身に対応する領域から上半身や頭部を自動的に抽出するようにしてもよい。 In this case, the dictionary information is generated by associating a region corresponding to each part of the body (whole body, upper body, or head) with a plurality of images obtained by imaging events to be identified such as human movements and postures. . The association between the image and the body part may be performed manually or automatically. When the association is performed automatically, for example, the upper body and the head may be automatically extracted from the region corresponding to the whole body by setting the lens center in the imaging region and the region corresponding to the whole body. .
このように、体の部位に応じて生成された複数の辞書情報を組み合わせる場合、部位ごとに設定された優先順位や、各辞書情報によって取得された人物情報の類似度などに基づいて、どの人物情報を採用するかを判断してもよい。また、第1の具体例と同様に、各辞書情報の重みに基づいて各人物情報を組み合わせて、最終的に採用する人物情報を生成してもよい。 In this way, when combining a plurality of dictionary information generated according to a body part, which person is based on the priority order set for each part, the similarity of person information acquired by each dictionary information, etc. It may be determined whether to adopt information. Similarly to the first specific example, the personal information to be finally adopted may be generated by combining the personal information based on the weight of the dictionary information.
また、複数の辞書情報に基づいて人物情報を取得する場合、各辞書情報に関する処理を並列に実行し、それぞれの結果に基づいて、最終的に採用する人物情報を総合的に判断してもよいし、各辞書情報に関する処理を直列に実行し、より詳細な人物情報を取得するようにしてもよい。例えば、全身辞書に基づいて人が検出された後に、“立位”、“歩行”“走る”などの行動を識別してもよい。また、例えば、頭部辞書に基づいて人の頭部が検出された後に“顔の向き”を識別してもよい。複数の辞書の組み合わせや優先順位、重みなどを適切に設定することにより、処理量の低減と性能の向上が可能になる。 In addition, when acquiring person information based on a plurality of dictionary information, processing related to each dictionary information may be executed in parallel, and finally the person information to be finally adopted may be comprehensively determined based on each result. Then, the processing related to each dictionary information may be executed in series to obtain more detailed person information. For example, after a person is detected based on the whole body dictionary, actions such as “standing position”, “walking”, and “running” may be identified. Further, for example, “face orientation” may be identified after a human head is detected based on a head dictionary. By appropriately setting combinations, priorities, weights, etc. of a plurality of dictionaries, it is possible to reduce the processing amount and improve the performance.
このように構成された実施形態の画像センサ1は、画像からの人の検出に、人の特徴を示す複数の辞書情報を用いることによって、広範囲が撮像された画像から精度良く人を検出することができる。また、人の検出において、動作や姿勢などの人の状態を示す辞書情報を複数用いることにより、検出した人の状態を示す人物情報を取得することができる。また、人の検出において、人の位置に応じて異なる映り方に応じた辞書情報を複数用いることにより、歪みを伴って広範囲が撮像された画像から、精度良く人を検出することができる。 The image sensor 1 according to the embodiment configured as described above can detect a person with high accuracy from an image in which a wide range is captured by using a plurality of dictionary information indicating characteristics of the person for detecting the person from the image. Can do. In addition, in the detection of a person, by using a plurality of dictionary information indicating a person's state such as an action and a posture, person information indicating the detected person's state can be acquired. Further, in the detection of a person, by using a plurality of dictionary information corresponding to different reflection methods depending on the position of the person, it is possible to accurately detect a person from an image in which a wide range is imaged with distortion.
以下、上記の画像センサ1を用いた機器制御システムの具体例について説明する。 Hereinafter, a specific example of a device control system using the image sensor 1 will be described.
例えば、機器制御システムは、画像センサ1、機器制御装置5及び調整用端末7を備える。
For example, the device control system includes an image sensor 1, a
図8は、機器制御装置5の機能構成を示す機能ブロック図である。
機器制御装置5は、バスで接続されたCPUやメモリや補助記憶装置などを備え、機器制御プログラムを実行する。機器制御装置5は、機器制御プログラムの実行によって通信部51、人物情報取得部52、照度情報取得部53、フロア情報取得部54、記憶部55及び制御情報生成部56を備える装置として機能する。なお、機器制御装置5の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。機器制御プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。機器制御プログラムは、電気通信回線を介して送信されてもよい。
FIG. 8 is a functional block diagram showing a functional configuration of the
The
通信部51は、自装置を制御ネットワーク50に接続するための通信インターフェースを用いて構成される。通信部51は、ネットワークハブ2又はゲートウェイサーバ3を介して、機器ネットワーク40及び制御ネットワーク50に接続された各種装置と通信する。
The
人物情報取得部52は、画像センサ1から人物情報を取得する。人物情報取得部31は、取得した人物情報を記憶部55に保存する。なお、人物情報は、画像センサ1から人物情報を取得する他の装置から取得されてもよい。例えば、人物情報取得部52は、BEMS4から人物情報を取得してもよい。
The person
照度情報取得部53(空間情報取得部)は、画像センサ1が撮像する空間の照度を示す照度情報(空間情報)を取得する。照度情報取得部53は、取得した照度情報を、記憶部55に保存する。
フロア情報取得部54は、画像センサ1が撮像する空間のフロア情報を取得する。フロア情報は、オフィスフロアなどのレイアウトを示す情報である。フロア情報取得部54は、取得したフロア情報を記憶部55に保存する。例えば、フロア情報取得部54は、BEMS4からフロア情報を取得する。
The illuminance information acquisition unit 53 (spatial information acquisition unit) acquires illuminance information (spatial information) indicating the illuminance of the space captured by the image sensor 1. The illuminance
The floor
記憶部55は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部55は、人物情報、照度情報及びフロア情報を記憶する。
The
制御情報生成部56(制御部)は、人物情報、照度情報及びフロア情報に基づいて、画像センサ1が撮像する空間に関する機器を制御する制御情報を生成する。制御情報生成部56は、生成した制御情報を制御対象の機器に送信する。制御対象の機器は、制御情報生成部56によって生成された制御情報に基づいて動作する。
The control information generation unit 56 (control unit) generates control information for controlling devices related to the space captured by the image sensor 1 based on the person information, the illuminance information, and the floor information. The control
図9は、制御情報生成部56が制御情報を生成する方法の具体例を示す図である。
例えば、照明機器の制御において、オフィスで作業する人の快適性を確保するためには、人の後ろではなく、前の照明を点灯する方がよい。この場合、制御情報生成部56は、図9(a)のように、画像センサ1から取得した人物情報に基づいて、人の在又は不在、検出された人の顔の向きのなどを判断する。制御情報生成部56は、人の顔の向きに基づいて人の前方の照明を点灯させるような制御情報を生成する。
FIG. 9 is a diagram illustrating a specific example of a method by which the control
For example, in the control of lighting equipment, it is better to turn on the front lighting rather than the back of the person in order to ensure the comfort of the person working in the office. In this case, as shown in FIG. 9A, the control
また、例えば、夜間であれば、1つの照明を点灯させるだけでは、手元が暗く作業がしにくい。この場合、制御情報生成部56は、図9(b)のように、検出された人の周囲の照明を点灯させるような制御情報を生成してもよい。また、制御情報生成部56は、照度情報に基づいて、空間の明るさを判断し、外光によって過度な明るさとなっている場合、照明の調光率を低下させるような制御情報を生成してもよい。
In addition, for example, at night, it is difficult to work by turning on only one illumination. In this case, as shown in FIG. 9B, the control
また、例えば、制御情報生成部56は、複数の画像センサ1から取得された人物情報とフロア情報とに基づいてフロア全体の状況を判断し、フロア内の照明機器や空調機器がフロア全体として最適化されるように制御情報を生成してもよい。例えば、制御情報生成部56は、人物情報に基づいてフロア全体における人の分布を判断し、点灯させる照明機器、空調の風向き、空調機器の設定温度などを変更するように制御情報を生成してもよい。
In addition, for example, the control
このように、機器制御システムにおいて、画像センサ1と機器制御装置5とを組み合わせることにより、人の状態に応じた柔軟な機器制御が可能となる。機器制御装置5は、照度情報取得部53が取得する照度情報に限らず、機器制御の判断に関する情報であればどのような情報に基づいて制御情報を生成してもよい。この場合、照度情報取得部53は、位置情報を取得する位置情報取得部として機能する。例えば、空間の温度を示す温度情報や、検出対象の人が保持する端末装置から位置情報を取得してもよい。機器制御装置5は、位置情報が示す位置に存在する人の人物情報を画像センサ1から取得するようにしてもよい。
Thus, in the device control system, by combining the image sensor 1 and the
図10は、調整用端末7の機能構成を示す機能ブロック図である。
調整用端末7は、バスで接続されたCPUやメモリや補助記憶装置などを備え、調整プログラムを実行する。調整用端末は、調整プログラムの実行によって通信部71、画像収集部72、記憶部73、辞書情報生成部74及びパラメータ調整部75を備える装置として機能する。なお、調整用端末7の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。調整プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。調整プログラムは、電気通信回線を介して送信されてもよい。
FIG. 10 is a functional block diagram showing a functional configuration of the
The
通信部71は、自装置を機器ネットワーク40に接続するための通信インターフェースを用いて構成される。通信部71は、ネットワークハブ2又はゲートウェイサーバ3を介して、機器ネットワーク40及び制御ネットワーク50に接続された各種装置と通信する。
The
画像収集部72は、辞書情報の作成に必要な事前画像を取得する。画像収集部72は、画像センサ1から事前画像を取得してもよいし、画像センサ1と異なる他の撮像装置から事前情報を取得してもよい。また、画像収集部72は、CD−ROMやフラッシュメモリ等の記憶媒体から事前画像を取得するように構成されてもよい。この場合、画像収集部72は、これらの記憶媒体から情報を読み出す情報読み出し装置又は、情報読み出し装置を自装置に接続するインターフェースとして構成されてもよい。画像収集部72は、取得した画像データを記憶部73に保存する。
The
記憶部73は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部73は、画像収集部72によって取得された画像データや、辞書情報生成部74によって生成された辞書情報を記憶する。
The
辞書情報生成部74は、収集された事前画像に基づいて、画像センサ1が人物情報の取得に用いる辞書情報を生成する。なお、画像センサ1が十分な精度で人物情報を取得するためには、画像センサ1は、質の高い辞書情報を学習する必要がある。そのため、辞書情報生成部74は、大量の事前画像を用いて辞書情報を生成する必要がある。大量の事前画像を取得する作業は、多くの労力を要するため、辞書情報生成部74は、画像センサ1と通信することによって、事前画像の取得を自動化するような機能を備えてもよい。
The dictionary
例えば、辞書情報生成部74は、ユーザの入力を受け付ける入力部としての機能を備え、辞書情報の生成に関する各種の設定情報を取得してもよい。例えば、辞書情報生成部74は、画像センサ1に事前画像の取得を実行させるタイミングに関する設定情報を取得してもよい。この場合、辞書情報生成部74は、設定情報が示すタイミングで画像センサ1と通信し、画像センサ1に事前画像の取得を指示してもよい。
For example, the dictionary
また、例えば、辞書情報生成部74は、画像収集部72に事前画像を収集させるタイミングに関する設定情報を取得してもよい。この場合、辞書情報生成部74は、設定情報が示すタイミングで、画像収集部72に事前画像の収集を指示してもよい。
For example, the dictionary
また、例えば、辞書情報生成部74は、上記のユーザの入力を他の装置との通信によって取得するように構成されてもよい。辞書情報生成部74がこのような機能を備えることにより、ユーザは、画像センサ1の辞書情報の学習に関する作業を、遠隔制御することが可能となる。例えば、ユーザは、各画像センサ1を目視で確認しつつ、画像センサ1の学習作業を制御することができる。
Further, for example, the dictionary
辞書情報生成部74が上記機能を備えることにより、事前画像の取得に要する労力を削減することができる。
Since the dictionary
パラメータ調整部75は、画像センサ1の人物情報を取得する処理における、複数の辞書情報の組み合わせや優先順位、重みなどの推奨値を決定する。パラメータ調整部75は、決定した推奨値を画像センサ1に送信する。
The
調整用端末7が推奨値を決定する方法の具体例を次に示す。例えば、調整用端末7は、機器制御装置5から位置情報を取得し、BEMS4から各機器の運転状態を示す情報を取得する。この場合、パラメータ調整部75は、位置情報や運転情報に基づいてその日のオフィスの使用状況を判断し、オフィスの使用状況に応じて辞書情報の優先順位を決定してもよい。
A specific example of how the
例えば、機器のON又はOFFが多い場合は人の出入りの頻度が多い日であると判断し、人の“歩行”を識別する辞書情報の重みを大きくしてもよい。また、位置情報に基づいて人の分布を判断し、人が分布する領域との距離に応じて辞書情報の優先順位や判定基準を変更するようにしてもよい。 For example, when the device is frequently turned on or off, it may be determined that the day when the person goes in and out frequently, and the weight of the dictionary information for identifying the person “walking” may be increased. Further, the distribution of people may be determined based on the position information, and the priority order and determination criteria of the dictionary information may be changed according to the distance from the area where the people are distributed.
また、例えば、パラメータ調整部75は、画像センサ1が設置された空間の状態に応じて、推奨値を決定してもよい。例えば、オフィスに設置される机の台数が多い場合や、机が密接している状況であれば、パラメータ調整部75は、全身辞書よりも頭部辞書の優先順位を上げるように推奨値を決定してもよい。一方、机の数が少ない打合せスペースであれば、パラメータ調整部75は、全身辞書の優先順位を上げるように推奨値を決定してもよい。あるいは、調整員が目視でオフィスの主な用途を判断し、座る人が多い場合は、パラメータ調整部75は、姿勢の識別における重みを変更して、“座位”の識別に関する辞書情報の優先順位を高くするように推奨値を決定してもよい。また、パラメータ調整部75は、カメラの性能限界による、白とびや黒つぶれの発生度合いを数値化し、特徴量の抽出に関するパラメータを変更してもよい。このような推奨値の決定に関する分析に必要となる人に関する情報には、画像センサ1によって生成された人物情報が用いられてもよい。
For example, the
このように優先順位や重みを決定することにより、例えば、業種や部門による働き方の違いや発生した事象に応じて、辞書情報の使い方を変更することが可能となり、画像センサ1の検出性能を向上させることができる。 By determining priorities and weights in this way, for example, it is possible to change the use of dictionary information according to differences in work styles and events that occur depending on the type of business or department, and the detection performance of the image sensor 1 can be improved. Can be improved.
このように、画像センサ1と調整用端末7とを組み合わせることにより、画像センサ1の人の検出の精度を向上させることができる。
In this manner, by combining the image sensor 1 and the
なお、調整用端末7によって生成される辞書情報は、同様の特徴を持つ他の空間が撮像された画像データに基づいて生成されてもよい。ここでは、このように生成された辞書情報を事前辞書情報と呼ぶ。これに対して、検出対象の空間の画像に基づいて生成された辞書情報を現地辞書情報と呼ぶ。この場合、事前辞書情報と現地辞書情報とを組み合わせて辞書情報を生成することにより、辞書情報の生成にかかる労力を軽減しつつ、辞書情報の品質の低下を抑制することができる。
Note that the dictionary information generated by the
例えば、ビルなどでは、一般に、学習用の画像の収集はビルに人が入居する前の調整時に調整員によって行われることが想定される。上記のような方法で辞書情報を生成すれば、入居前に生成された辞書情報を用いて運用を開始し、運用中に撮像された画像で辞書情報の品質を向上させていくことができる。 For example, in a building or the like, it is generally assumed that collection of learning images is performed by a coordinator during adjustment before a person enters the building. If the dictionary information is generated by the method as described above, the operation can be started using the dictionary information generated before moving in, and the quality of the dictionary information can be improved with the image captured during the operation.
以上説明した少なくともひとつの実施形態によれば、人を検出する対象の空間を撮像する撮像部と、人の特徴を示す複数の辞書情報を記憶する記憶部と、撮像部によって撮像された画像と複数の辞書情報とに基づいて、画像から人を検出し、検出した人の状態を示す人物情報を取得する人物情報取得部と、を持つことにより、広範囲が撮像された画像から精度良く人を検出することができる。 According to at least one embodiment described above, an imaging unit that captures a space of a target for detecting a person, a storage unit that stores a plurality of dictionary information indicating human characteristics, an image captured by the imaging unit, A person information acquisition unit that detects a person from an image based on a plurality of dictionary information and acquires person information indicating the state of the detected person, so that a person can be accurately detected from an image captured over a wide area. Can be detected.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.
1、1−1、1−2、1−3…画像センサ,11…通信部,12…撮像部,13…辞書情報記憶部,14…人物情報取得部,2…ネットワークハブ,3…ゲートウェイサーバ,4…BEMS(Building Energy Management System),5…機器制御装置,51…通信部,52…人物情報取得部,53…照度情報取得部,54…フロア情報取得部,55…記憶部,56…制御情報生成部,6…可視化装置,7…調整用端末,71…通信部,72…画像収集部,73…記憶部,74…辞書情報生成部,75…パラメータ調整部,10…天井,20…照明機器,30…空調機器,40…機器ネットワーク,50…制御ネットワーク,100−1、100−2、100−3、100−4、100−5…画像,201、202、203…分割領域 DESCRIPTION OF SYMBOLS 1, 1-1, 1-2, 1-3 ... Image sensor, 11 ... Communication part, 12 ... Imaging part, 13 ... Dictionary information storage part, 14 ... Person information acquisition part, 2 ... Network hub, 3 ... Gateway server , 4 ... BEMS (Building Energy Management System), 5 ... Device control device, 51 ... Communication unit, 52 ... Person information acquisition unit, 53 ... Illuminance information acquisition unit, 54 ... Floor information acquisition unit, 55 ... Storage unit, 56 ... Control information generation unit, 6 ... visualization device, 7 ... adjustment terminal, 71 ... communication unit, 72 ... image collection unit, 73 ... storage unit, 74 ... dictionary information generation unit, 75 ... parameter adjustment unit, 10 ... ceiling, 20 ... Lighting equipment, 30 ... Air conditioning equipment, 40 ... Equipment network, 50 ... Control network, 100-1, 100-2, 100-3, 100-4, 100-5 ... Image, 201, 202, 203 ... Divided area
Claims (15)
人の特徴を示す複数の辞書情報を記憶する記憶部と、
前記撮像部によって撮像された画像と前記複数の辞書情報とに基づいて前記画像から人を検出する検出部と、
を備える画像センサ。 An imaging unit that images a space of a target for detecting a person;
A storage unit for storing a plurality of dictionary information indicating human characteristics;
A detection unit for detecting a person from the image based on the image captured by the imaging unit and the plurality of dictionary information;
An image sensor comprising:
前記検出部は、前記撮像部によって撮像された画像と前記複数の辞書情報とに基づいて、前記分割された複数の領域ごとに人を検出する、
請求項1に記載の画像センサ。 The storage unit stores, for each of a plurality of regions into which the image is divided, a plurality of dictionary information indicating human characteristics according to the divided regions,
The detection unit detects a person for each of the plurality of divided regions based on the image captured by the imaging unit and the plurality of dictionary information.
The image sensor according to claim 1.
前記複数の辞書情報に基づいて、前記検出部によって検出された人の状態を示す人物情報を取得する人物情報取得部をさらに備える、
請求項1又は2に記載の画像センサ。 The storage unit stores a plurality of dictionary information indicating a person's state,
A personal information acquisition unit that acquires personal information indicating the state of the person detected by the detection unit based on the plurality of dictionary information;
The image sensor according to claim 1 or 2.
前記人物情報取得部は、前記複数の辞書情報に基づいて、人の全身又は一部が撮像された画像から前記人物情報を取得する、
請求項2又は3に記載の画像センサ。 The storage unit stores a plurality of dictionary information indicating characteristics of a person's whole body or body part,
The person information acquisition unit acquires the person information from an image obtained by capturing the whole body or part of a person based on the plurality of dictionary information.
The image sensor according to claim 2.
請求項1から4のいずれか一項に記載の画像センサ。 The person information acquisition unit acquires a plurality of person information in parallel based on the plurality of dictionary information, and a person to be adopted from the plurality of person information according to a priority or weight of the plurality of dictionary information Determine information,
The image sensor according to any one of claims 1 to 4.
請求項1から5のいずれか一項に記載の画像センサ。 The person information acquisition unit acquires new person information based on the acquired person information and the plurality of dictionary information.
The image sensor as described in any one of Claim 1 to 5.
前記記憶部は、前記レンズによる歪みに応じて前記画像が分割された複数の領域ごとに、前記分割された領域に応じた人の特徴を示す複数の辞書情報を記憶し、
前記人物情報取得部は、前記複数の辞書に基づいて、歪みを伴って撮像された画像から前記人物情報を取得する、
請求項2から6のいずれか一項に記載の画像センサ。 The imaging unit images the space using a lens capable of imaging a wide range,
The storage unit stores, for each of a plurality of regions into which the image is divided according to distortion by the lens, a plurality of dictionary information indicating human characteristics according to the divided regions,
The person information acquisition unit acquires the person information from an image captured with distortion based on the plurality of dictionaries.
The image sensor according to any one of claims 2 to 6.
前記撮像部によって撮像された画像と前記複数の辞書情報とに基づいて前記画像から人を検出する検出ステップを有する、
人検出方法。 A human detection method performed by an image sensor comprising: an imaging unit that images a space to be detected by a person; and a storage unit that stores a plurality of dictionary information indicating human characteristics,
A detection step of detecting a person from the image based on the image captured by the imaging unit and the plurality of dictionary information;
Person detection method.
前記撮像部によって撮像された画像と前記複数の辞書情報とに基づいて前記画像から人を検出する検出ステップを、
コンピュータに実行させるためのコンピュータプログラム。 In a human detection method performed by an image sensor including an imaging unit that images a space of a target for detecting a person and a storage unit that stores a plurality of dictionary information indicating characteristics of the person,
A detection step of detecting a person from the image based on the image captured by the imaging unit and the plurality of dictionary information;
A computer program for causing a computer to execute.
前記画像センサが撮像する空間の状態を示す空間情報を取得する空間情報取得部と、
前記画像センサによって取得される前記空間に存在する人の状態を示す人物情報と、前記空間情報取得部が取得する空間情報とに基づいて、前記空間に関する機器を制御するための制御情報を取得する制御部と、
を備える制御システム。 The image sensor according to any one of claims 1 to 7,
A spatial information acquisition unit that acquires spatial information indicating a state of a space captured by the image sensor;
Control information for controlling the device related to the space is acquired based on the personal information indicating the state of the person existing in the space acquired by the image sensor and the spatial information acquired by the spatial information acquisition unit. A control unit;
A control system comprising:
請求項10に記載の制御システム。 The control unit acquires the control information based on person information acquired from a plurality of the image sensors.
The control system according to claim 10.
前記空間情報取得部は、前記空間に関する機器の状態を示す情報を空間情報として取得し、
前記画像センサは、撮像した画像において前記位置情報が示す位置に存在する人の人物情報を取得する、
請求項11に記載の制御システム。 It further communicates with a terminal device held by a person to be detected, and further comprises a position information acquisition unit that acquires position information indicating the position of the terminal device from the terminal device,
The spatial information acquisition unit acquires information indicating a state of the device related to the space as spatial information,
The image sensor acquires person information of a person existing at a position indicated by the position information in the captured image;
The control system according to claim 11.
前記画像センサが前記辞書情報生成部によって生成された辞書情報を複数用いて人物情報を取得する際における、前記辞書情報の組み合わせ、優先順位又は重みの推奨値を決定する調整部と、
をさらに備える制御システム。 A dictionary information generating unit that acquires an image from the image sensor and generates dictionary information used by the image sensor to acquire person information based on the acquired image;
When the image sensor acquires person information using a plurality of dictionary information generated by the dictionary information generating unit, an adjustment unit that determines a combination value of the dictionary information, a priority or a recommended value of weight,
A control system further comprising:
前記画像センサが撮像する空間の状態を示す空間情報を取得する空間情報取得ステップと、
前記画像センサによって取得される前記空間に存在する人の状態を示す人物情報と、前記空間情報取得ステップにおいて取得される空間情報とに基づいて、前記空間に関する機器を制御するための制御情報を取得する制御ステップと、
を有する制御方法。 A control method performed by a control system including the image sensor according to claim 1,
A spatial information acquisition step of acquiring spatial information indicating a state of a space captured by the image sensor;
Acquire control information for controlling a device related to the space based on the personal information indicating the state of a person existing in the space acquired by the image sensor and the spatial information acquired in the spatial information acquisition step. A control step to
A control method.
前記画像センサが撮像する空間の状態を示す空間情報を取得する空間情報取得ステップと、
前記画像センサによって取得される前記空間に存在する人の状態を示す人物情報と、前記空間情報取得ステップにおいて取得される空間情報とに基づいて、前記空間に関する機器を制御するための制御情報を取得する制御ステップと、
をコンピュータに実行させるためのコンピュータプログラム。 In the control method which a control system provided with the image sensor as described in any one of Claim 1 to 7 performs.
A spatial information acquisition step of acquiring spatial information indicating a state of a space captured by the image sensor;
Acquire control information for controlling a device related to the space based on the personal information indicating the state of a person existing in the space acquired by the image sensor and the spatial information acquired in the spatial information acquisition step. A control step to
A computer program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015051318A JP2016171526A (en) | 2015-03-13 | 2015-03-13 | Image sensor, person detection method, control system, control method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015051318A JP2016171526A (en) | 2015-03-13 | 2015-03-13 | Image sensor, person detection method, control system, control method, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016171526A true JP2016171526A (en) | 2016-09-23 |
Family
ID=56984228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015051318A Pending JP2016171526A (en) | 2015-03-13 | 2015-03-13 | Image sensor, person detection method, control system, control method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016171526A (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019080177A (en) * | 2017-10-25 | 2019-05-23 | 株式会社東芝 | Image sensor, person detection method, program, and control system |
JP2019087787A (en) * | 2017-11-01 | 2019-06-06 | 株式会社東芝 | Image sensor, sensing method, control system, and program |
CN110008806A (en) * | 2017-12-27 | 2019-07-12 | 本田技研工业株式会社 | Storage medium, learning processing method, learning device and object identification device |
JP2019159739A (en) * | 2018-03-13 | 2019-09-19 | キヤノン株式会社 | Image processing device, image processing method, and program |
JP2019204165A (en) * | 2018-05-21 | 2019-11-28 | 株式会社東芝 | Image sensor, identification method, control system and program |
JP2019212148A (en) * | 2018-06-07 | 2019-12-12 | 富士ゼロックス株式会社 | Information processing device and information processing program |
WO2020008726A1 (en) * | 2018-07-02 | 2020-01-09 | コニカミノルタ株式会社 | Target object detection program and target object detection device |
JP2020053768A (en) * | 2018-09-25 | 2020-04-02 | 株式会社東芝 | Image sensor system, control method, gateway unit and computer program |
JP2020154552A (en) * | 2019-03-19 | 2020-09-24 | 株式会社リコー | Behavior recognition device, behavior recognition method, and program |
JP2020201880A (en) * | 2019-06-13 | 2020-12-17 | 富士通クライアントコンピューティング株式会社 | Image processing apparatus and image processing program |
CN112484734A (en) * | 2020-12-08 | 2021-03-12 | 中国矿业大学 | Feature-based extraction of adaptive neural networks and CO2Indoor personnel positioning method |
WO2021157213A1 (en) * | 2020-02-07 | 2021-08-12 | オムロン株式会社 | Image processing device and image processing method |
JP2021135665A (en) * | 2020-02-26 | 2021-09-13 | パナソニックIpマネジメント株式会社 | Person detection system |
JP2022033202A (en) * | 2017-10-25 | 2022-02-28 | 株式会社東芝 | Image sensor, moving body detection method, program, and control system |
CN115280395A (en) * | 2020-03-31 | 2022-11-01 | 株式会社小松制作所 | Detection system and detection method |
WO2023228620A1 (en) * | 2022-05-26 | 2023-11-30 | 株式会社日立製作所 | Cooperative work recognition system and cooperative work recognition method |
DE112022002323T5 (en) | 2021-04-26 | 2024-02-22 | Omron Corporation | RECOGNITION APPARATUS, CONTROL METHOD FOR RECOGNITION APPARATUS, METHOD FOR MODEL GENERATION BY MODEL GENERATION APPARATUS WHICH GENERATES A TRAINED MODEL, INFORMATION PROCESSING PROGRAM AND RECORDING MEDIUM |
JP7463582B2 (en) | 2018-07-09 | 2024-04-08 | 株式会社東芝 | Sensing system, maintenance terminal device, data distribution method, and image sensor |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011075248A (en) * | 2009-10-01 | 2011-04-14 | Mitsubishi Electric Corp | Environment control system |
JP2011100175A (en) * | 2009-11-04 | 2011-05-19 | Nippon Hoso Kyokai <Nhk> | Device and program for deciding personal action |
JP2012230546A (en) * | 2011-04-26 | 2012-11-22 | Hitachi Information & Communication Engineering Ltd | Object recognition method and recognition device |
JP2013027211A (en) * | 2011-07-22 | 2013-02-04 | Toshiba Corp | Electric equipment control system and electric equipment control apparatus |
JP2014229010A (en) * | 2013-05-21 | 2014-12-08 | 株式会社デンソー | Object detector |
-
2015
- 2015-03-13 JP JP2015051318A patent/JP2016171526A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011075248A (en) * | 2009-10-01 | 2011-04-14 | Mitsubishi Electric Corp | Environment control system |
JP2011100175A (en) * | 2009-11-04 | 2011-05-19 | Nippon Hoso Kyokai <Nhk> | Device and program for deciding personal action |
JP2012230546A (en) * | 2011-04-26 | 2012-11-22 | Hitachi Information & Communication Engineering Ltd | Object recognition method and recognition device |
JP2013027211A (en) * | 2011-07-22 | 2013-02-04 | Toshiba Corp | Electric equipment control system and electric equipment control apparatus |
JP2014229010A (en) * | 2013-05-21 | 2014-12-08 | 株式会社デンソー | Object detector |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7286747B2 (en) | 2017-10-25 | 2023-06-05 | 株式会社東芝 | Image sensor, motion detection method, program and control system |
JP7002912B2 (en) | 2017-10-25 | 2022-01-20 | 株式会社東芝 | Image sensors, person detection methods, programs and control systems |
JP2019080177A (en) * | 2017-10-25 | 2019-05-23 | 株式会社東芝 | Image sensor, person detection method, program, and control system |
JP2022033202A (en) * | 2017-10-25 | 2022-02-28 | 株式会社東芝 | Image sensor, moving body detection method, program, and control system |
JP2019087787A (en) * | 2017-11-01 | 2019-06-06 | 株式会社東芝 | Image sensor, sensing method, control system, and program |
JP7005285B2 (en) | 2017-11-01 | 2022-01-21 | 株式会社東芝 | Image sensors, sensing methods, control systems and programs |
JP2019117577A (en) * | 2017-12-27 | 2019-07-18 | 本田技研工業株式会社 | Program, learning processing method, learning model, data structure, learning device and object recognition device |
CN110008806B (en) * | 2017-12-27 | 2022-11-08 | 本田技研工业株式会社 | Information processing device, learning processing method, learning device, and object recognition device |
US10733705B2 (en) | 2017-12-27 | 2020-08-04 | Honda Motor Co., Ltd. | Information processing device, learning processing method, learning device, and object recognition device |
CN110008806A (en) * | 2017-12-27 | 2019-07-12 | 本田技研工业株式会社 | Storage medium, learning processing method, learning device and object identification device |
JP7059054B2 (en) | 2018-03-13 | 2022-04-25 | キヤノン株式会社 | Image processing equipment, image processing methods and programs |
JP2019159739A (en) * | 2018-03-13 | 2019-09-19 | キヤノン株式会社 | Image processing device, image processing method, and program |
JP2019204165A (en) * | 2018-05-21 | 2019-11-28 | 株式会社東芝 | Image sensor, identification method, control system and program |
JP6991922B2 (en) | 2018-05-21 | 2022-01-13 | 株式会社東芝 | Image sensors, identification methods, control systems and programs |
JP2019212148A (en) * | 2018-06-07 | 2019-12-12 | 富士ゼロックス株式会社 | Information processing device and information processing program |
JP7230345B2 (en) | 2018-06-07 | 2023-03-01 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and information processing program |
JPWO2020008726A1 (en) * | 2018-07-02 | 2021-07-08 | コニカミノルタ株式会社 | Target object detection program and target object detection device |
WO2020008726A1 (en) * | 2018-07-02 | 2020-01-09 | コニカミノルタ株式会社 | Target object detection program and target object detection device |
JP7243725B2 (en) | 2018-07-02 | 2023-03-22 | コニカミノルタ株式会社 | Target object detection program and target object detection device |
JP7463582B2 (en) | 2018-07-09 | 2024-04-08 | 株式会社東芝 | Sensing system, maintenance terminal device, data distribution method, and image sensor |
JP2020053768A (en) * | 2018-09-25 | 2020-04-02 | 株式会社東芝 | Image sensor system, control method, gateway unit and computer program |
JP7309337B2 (en) | 2018-09-25 | 2023-07-18 | 株式会社東芝 | Image sensor system, control method, gateway device and computer program |
JP7338182B2 (en) | 2019-03-19 | 2023-09-05 | 株式会社リコー | Action recognition device, action recognition method and program |
JP2020154552A (en) * | 2019-03-19 | 2020-09-24 | 株式会社リコー | Behavior recognition device, behavior recognition method, and program |
JP2020201880A (en) * | 2019-06-13 | 2020-12-17 | 富士通クライアントコンピューティング株式会社 | Image processing apparatus and image processing program |
WO2021157213A1 (en) * | 2020-02-07 | 2021-08-12 | オムロン株式会社 | Image processing device and image processing method |
JP2021135665A (en) * | 2020-02-26 | 2021-09-13 | パナソニックIpマネジメント株式会社 | Person detection system |
CN115280395A (en) * | 2020-03-31 | 2022-11-01 | 株式会社小松制作所 | Detection system and detection method |
CN112484734A (en) * | 2020-12-08 | 2021-03-12 | 中国矿业大学 | Feature-based extraction of adaptive neural networks and CO2Indoor personnel positioning method |
DE112022002323T5 (en) | 2021-04-26 | 2024-02-22 | Omron Corporation | RECOGNITION APPARATUS, CONTROL METHOD FOR RECOGNITION APPARATUS, METHOD FOR MODEL GENERATION BY MODEL GENERATION APPARATUS WHICH GENERATES A TRAINED MODEL, INFORMATION PROCESSING PROGRAM AND RECORDING MEDIUM |
WO2023228620A1 (en) * | 2022-05-26 | 2023-11-30 | 株式会社日立製作所 | Cooperative work recognition system and cooperative work recognition method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016171526A (en) | Image sensor, person detection method, control system, control method, and computer program | |
US9036866B2 (en) | Image-based occupancy sensor | |
JP5726792B2 (en) | Information processing apparatus, image sensor apparatus, and program | |
JP5971568B2 (en) | Electric equipment control system, image sensor and server device | |
CN108781267B (en) | Image processing apparatus and method | |
US9295141B2 (en) | Identification device, method and computer program product | |
JP2014017114A (en) | Illumination system | |
WO2020137193A1 (en) | Human detection device and human detection method | |
CN109996379B (en) | Light control method and device | |
US20210400167A1 (en) | Methods and systems for colorizing infrared images | |
JP6316102B2 (en) | Adjustment terminal, adjustment method, and computer program | |
TWI428508B (en) | Controlling system, method for fans, and fan including the same | |
KR20190099216A (en) | RGBD detection based object detection system and method | |
WO2019087742A1 (en) | Image sensor, sensing method, control system and program | |
JP7074174B2 (en) | Discriminator learning device, discriminator learning method and computer program | |
EP3529788B1 (en) | Presence detection system and method | |
JP6495691B2 (en) | Moving object detection device, moving object detection method, and computer program | |
WO2017119336A1 (en) | Lighting control system, lighting control method, lighting control device, and computer program | |
JP2015204532A (en) | Image processing apparatus and imaging device | |
JP6495696B2 (en) | Image collecting apparatus, image collecting method, and computer program | |
US20210035334A1 (en) | Systems and Methods for Implementing a Sensor Based Real Time Tracking System | |
JP2020071717A (en) | Information processing device, information processing method, and program | |
JP2017138922A (en) | Image sensor and learning method | |
WO2019082652A1 (en) | Image sensor, person detection method, program, and control system | |
JP7286747B2 (en) | Image sensor, motion detection method, program and control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20170911 Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20170911 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180709 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180807 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181009 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190305 |