JP7145693B2 - SEAT CONDITION SENSING SYSTEM, SEAT CONDITION DETERMINATION METHOD, AND IMAGE SENSOR - Google Patents

SEAT CONDITION SENSING SYSTEM, SEAT CONDITION DETERMINATION METHOD, AND IMAGE SENSOR Download PDF

Info

Publication number
JP7145693B2
JP7145693B2 JP2018156286A JP2018156286A JP7145693B2 JP 7145693 B2 JP7145693 B2 JP 7145693B2 JP 2018156286 A JP2018156286 A JP 2018156286A JP 2018156286 A JP2018156286 A JP 2018156286A JP 7145693 B2 JP7145693 B2 JP 7145693B2
Authority
JP
Japan
Prior art keywords
chair
detection
information
detection information
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018156286A
Other languages
Japanese (ja)
Other versions
JP2020030653A (en
Inventor
宏幸 会津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2018156286A priority Critical patent/JP7145693B2/en
Publication of JP2020030653A publication Critical patent/JP2020030653A/en
Application granted granted Critical
Publication of JP7145693B2 publication Critical patent/JP7145693B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)

Description

本発明の実施形態は、座席(椅子またはテーブル、あるいはその双方)の状態をセンシングするシステム、方法、および画像センサに関する。 Embodiments of the present invention relate to systems, methods, and image sensors for sensing the state of a seat (chair and/or table).

近年、フリーアドレスのオフィスや商業施設(フードコート等)において、ユーザに空席を案内するサービスが検討されている。例えば、人流解析技術や、既存の画像解析技術によれば、人の位置を計測することができる。しかしながら座席が使用されているか、いないかを判定するには、人だけでなく椅子の位置も取得しなくてはならず、そのような技術は知られていない。まして、椅子やテーブルは移動することもあるので、そのような場合には座席の状態(例えば、使用中/空席)を正しく把握することができない。 2. Description of the Related Art In recent years, services for guiding users to available seats in free-address offices and commercial facilities (such as food courts) have been considered. For example, people's positions can be measured by means of people flow analysis technology or existing image analysis technology. However, in order to determine whether a seat is in use or not, not only the position of the person but also the position of the chair must be acquired, and such technology is not known. Furthermore, since the chairs and tables may move, in such a case, it is not possible to correctly grasp the state of the seat (for example, seat in use/empty).

特開2013-61832号公報JP 2013-61832 A 特開2016-126373号公報JP 2016-126373 A 特開2014-137190号公報JP 2014-137190 A

座席の状態を把握するには、人の位置情報だけでなく、椅子の位置情報を正確に取得し、そのうえで、これらの情報を適切に処理する必要がある。 In order to grasp the state of the seat, it is necessary to obtain not only the positional information of the person but also the positional information of the chair accurately, and then process this information appropriately.

そこで、目的は、座席の状態を正確に把握できるようにした座席状態センシングシステム、座席状態判定方法、および画像センサを提供することにある。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a seat state sensing system, a seat state determination method, and an image sensor capable of accurately grasping the state of a seat.

実施形態によれば、座席状態センシングシステムは、撮像素子を有する画像センサを具備する。前記画像センサは、前記撮像素子で対象空間を撮像して得られた画像データから、前記対象空間における人の位置情報を示す人検出情報を生成し、前記画像データから、前記対象空間における椅子の位置情報を示す椅子検出情報を生成する、検出部と、前記人検出情報と前記椅子検出情報とに基づいて座席の状態を判定し、当該座席の状態を示す座席状態情報を生成する判定部と、人検出用の辞書データと、前記椅子の形状情報を格納する椅子検出用の複数の辞書データとが記録された記憶部と、を具備し、前記検出部は、前記人検出用の辞書データを用いて前記人検出情報を生成することと、前記椅子検出用の辞書データを用いて前記椅子検出情報を生成することとを交互に行い、前記椅子検出情報の生成に際し、前記椅子検出用の複数の辞書データを順次切り替えて用いるAccording to embodiments, a seat condition sensing system comprises an image sensor having an imaging element. The image sensor generates human detection information indicating position information of a person in the target space from image data obtained by imaging the target space with the imaging element, and detects the position of the chair in the target space from the image data. a detection unit that generates chair detection information indicating position information; a determination unit that determines a seat state based on the person detection information and the chair detection information and generates seat state information that indicates the state of the seat; and a storage section storing dictionary data for human detection and a plurality of dictionary data for chair detection storing shape information of the chair, wherein the detection section stores the dictionary data for human detection. and generating the chair detection information using the dictionary data for chair detection are alternately performed. A plurality of dictionary data are sequentially switched and used .

図1は、室内空間の一例を示す図である。FIG. 1 is a diagram showing an example of an indoor space. 図2は、実施形態に係わるセンシングシステムの一例を示す図である。FIG. 2 is a diagram illustrating an example of a sensing system according to the embodiment; 図3は、画像センサ3の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the image sensor 3. As shown in FIG. 図4は、図3に示される機能ブロック間での情報の流れの一例を示す図である。FIG. 4 is a diagram showing an example of information flow between the functional blocks shown in FIG. 図5は、人検出情報の一例を示す図である。FIG. 5 is a diagram showing an example of human detection information. 図6は、椅子検出情報の一例を示す図である。FIG. 6 is a diagram showing an example of chair detection information. 図7は、座席状態情報の一例を示す図である。FIG. 7 is a diagram showing an example of seat state information. 図8は、第1の実施形態における情報伝達の一例を示す図である。FIG. 8 is a diagram showing an example of information transmission in the first embodiment. 図9は、画像センサ3の他の例を示すブロック図である。FIG. 9 is a block diagram showing another example of the image sensor 3. As shown in FIG. 図10は、図9に示される機能ブロック間での情報の流れの一例を示す図である。FIG. 10 is a diagram showing an example of information flow between functional blocks shown in FIG. 図11は、画像センサ3の他の例を示すブロック図である。FIG. 11 is a block diagram showing another example of the image sensor 3. As shown in FIG. 図12は、図11に示される機能ブロック間での情報の流れの一例を示す図である。FIG. 12 is a diagram showing an example of information flow between functional blocks shown in FIG. 図13は、画像センサ3の他の例を示すブロック図である。FIG. 13 is a block diagram showing another example of the image sensor 3. As shown in FIG. 図14は、図13に示される機能ブロック間での情報の流れの一例を示す図である。14 is a diagram showing an example of information flow between the functional blocks shown in FIG. 13. FIG. 図15は、画像センサ3の他の例を示すブロック図である。FIG. 15 is a block diagram showing another example of the image sensor 3. As shown in FIG. 図16は、図15に示される機能ブロック間での情報の流れの一例を示す図である。16 is a diagram showing an example of information flow between the functional blocks shown in FIG. 15. FIG. 図17は、第5の実施形態でのプロセッサ33の処理手順の一例を示すフローチャートである。FIG. 17 is a flow chart showing an example of the processing procedure of the processor 33 in the fifth embodiment. 図18は、画像センサ3の他の例を示すブロック図である。FIG. 18 is a block diagram showing another example of the image sensor 3. As shown in FIG. 図19は、図18に示される機能ブロック間での情報の流れの一例を示す図である。19 is a diagram showing an example of information flow between the functional blocks shown in FIG. 18. FIG. 図20は、第6の実施形態における情報伝達の一例を示す図である。FIG. 20 is a diagram showing an example of information transmission in the sixth embodiment. 図21は、第7の実施形態における情報伝達の一例を示す図である。FIG. 21 is a diagram showing an example of information transmission in the seventh embodiment. 図22は、ゲートウェイ200の一例を示す機能ブロック図である。FIG. 22 is a functional block diagram showing an example of the gateway 200. As shown in FIG. 図23は、図22に示される機能ブロック間での情報の流れの一例を示す図である。FIG. 23 is a diagram showing an example of information flow between functional blocks shown in FIG. 図24は、画像センサ3の他の例を示すブロック図である。FIG. 24 is a block diagram showing another example of the image sensor 3. As shown in FIG. 図25は、図24に示される機能ブロック間での情報の流れの一例を示す図である。FIG. 25 is a diagram showing an example of information flow between functional blocks shown in FIG. 図26は、第9の実施形態における情報伝達の一例を示す図である。FIG. 26 is a diagram showing an example of information transmission in the ninth embodiment. 図27は、クラウド400に設けられるサーバ600の一例を示す機能ブロック図である。FIG. 27 is a functional block diagram showing an example of the server 600 provided in the cloud 400. As shown in FIG. 図28は、第10の実施形態における情報伝達の一例を示す図である。FIG. 28 is a diagram showing an example of information transmission in the tenth embodiment. 図29は、センシングシステムの他の例を示す図である。FIG. 29 is a diagram showing another example of the sensing system. 図30は、センシングシステムの他の例を示す図である。FIG. 30 is a diagram showing another example of the sensing system. 図31は、センシングシステムの他の例を示す図である。FIG. 31 is a diagram showing another example of the sensing system. 図32は、センシングシステムの他の例を示す図である。FIG. 32 is a diagram showing another example of the sensing system. 図33は、センシングシステムの他の例を示す図である。FIG. 33 is a diagram showing another example of the sensing system.

以下に、図面を参照して、この発明の実施の形態について説明する。
図1は、室内空間の一例を示す図である。図1に示されるように、オフィスビルにおける各フロアの例えば天井に、照明機器1、空調機器2の吹き出し口、および画像センサ3が配設される。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram showing an example of an indoor space. As shown in FIG. 1, a lighting device 1, an air outlet of an air conditioner 2, and an image sensor 3 are arranged on, for example, the ceiling of each floor of an office building.

図2は、実施形態に係わるセンシングシステムの一例を示す図である。図2において、オフィスビル内に形成されるLAN(Local Area Network)に、ゲートウェイ(GW)200、ルータ300、およびコントローラ500が接続される。このうちコントローラ500は、上位のBEMS(Building Energy Management System)サーバ(図示せず)等からの指示に基づき、ビル内の空調機器や照明機器等を制御する。 FIG. 2 is a diagram illustrating an example of a sensing system according to the embodiment; In FIG. 2, a gateway (GW) 200, a router 300, and a controller 500 are connected to a LAN (Local Area Network) formed in an office building. Among them, the controller 500 controls air conditioning equipment, lighting equipment, etc. in the building based on instructions from an upper BEMS (Building Energy Management System) server (not shown) or the like.

ルータ300は、インターネットなどの公衆通信回線や専用線などを経由して、ビル内LANとクラウドコンピューティングシステム(クラウド)400とを通信可能に接続する。これによりセンシングシステムは、各種のデータをクラウド400と授受することができる。LAN上の通信プロトコルとしては、例えば、インテリジェントビル用ネットワークの通信規格であるBACnet(登録商標)やLONWORKS(登録商標)、KNX(登録商標)、DALI、ZigBee(登録商標)、ECHONET Lite(登録商標)を適用することができる。 The router 300 communicably connects the intra-building LAN and the cloud computing system (cloud) 400 via a public communication line such as the Internet or a dedicated line. Thereby, the sensing system can exchange various data with the cloud 400 . Examples of communication protocols on the LAN include BACnet (registered trademark), LONWORKS (registered trademark), KNX (registered trademark), DALI, ZigBee (registered trademark), and ECHONET Lite (registered trademark), which are communication standards for intelligent building networks. ) can be applied.

ゲートウェイ200は、複数の画像センサ3(3-1~3-n)を自らの配下に収容する。画像センサ3-1~3-nは、センサネットワーク100経由でゲートウェイ200に接続される。センサネットワーク100は、例えばEtherCAT(登録商標)であり、渡り配線によるループ構造を有する回線で、画像センサ3-1~3-nおよびゲートウェイ200を互いに通信可能に接続する。BEMSサーバやコントローラ500、ルータ300も、ゲートウェイ200経由で画像センサ3-1~3-nと相互通信することが可能である。 The gateway 200 accommodates a plurality of image sensors 3 (3-1 to 3-n) under its own control. Image sensors 3 - 1 to 3 - n are connected to gateway 200 via sensor network 100 . The sensor network 100 is, for example, EtherCAT (registered trademark), and connects the image sensors 3-1 to 3-n and the gateway 200 so as to be able to communicate with each other through a line having a loop structure of transition wiring. The BEMS server, controller 500 and router 300 can also communicate with the image sensors 3-1 to 3-n via the gateway 200. FIG.

画像センサ3は、対象空間を撮影して画像データを取得する。画像センサ3は、取得した画像データを処理し、環境情報および人物情報などのセンシング情報を作成する。環境情報は、制御対象の空間(対象空間)の環境に関する情報であり、例えば、対象空間における照度の分布が挙げられる。人物情報は、対象空間における人間に関する情報であり、例えば、人の存在または不在(在/不在)、滞在時間、人数、人の行動、人の活動量、および、人の着衣に関する着衣情報などを挙げることができる。センシング情報は、ゲートウェイ200経由で、コントローラ500やクラウド400上のサーバ等に伝送される。次に、上記構成を基礎として複数の実施形態を説明する。 The image sensor 3 acquires image data by photographing the target space. The image sensor 3 processes the acquired image data and creates sensing information such as environment information and person information. The environmental information is information about the environment of the space to be controlled (target space), and includes, for example, the distribution of illuminance in the target space. Person information is information about people in the target space, such as presence or absence (presence/absence) of people, length of stay, number of people, behavior of people, amount of activity of people, and clothing information about people's clothes. can be mentioned. The sensing information is transmitted to the controller 500, the server on the cloud 400, etc. via the gateway 200. FIG. Next, a plurality of embodiments will be described based on the above configuration.

[第1の実施形態]
図3は、画像センサ3の一例を示すブロック図である。画像センサ3は、撮像部31、記憶部32、プロセッサ33、および通信部34を備える。これらは内部バス35を介して互いに接続される。
[First Embodiment]
FIG. 3 is a block diagram showing an example of the image sensor 3. As shown in FIG. The image sensor 3 includes an imaging section 31 , a storage section 32 , a processor 33 and a communication section 34 . These are connected to each other via an internal bus 35 .

撮像部31は、魚眼レンズ31a、絞り機構31b、撮像素子31cおよびレジスタ30を備える。魚眼レンズ31aは、対象空間としての室内を、例えば天井から見下ろす形で視野に捕えて撮像素子31cに結像する。撮像素子31cは、CMOS(相補型金属酸化膜半導体)に代表されるイメージセンサであり、例えば毎秒30フレームのフレームレートの映像信号を生成する。この映像信号はディジタル符号化され、画像データとして出力される。撮像素子31cへの入射光量は絞り機構31bにより調節される。 The imaging unit 31 includes a fisheye lens 31a, an aperture mechanism 31b, an imaging element 31c, and a register 30. The fish-eye lens 31a captures the interior of the room, which is the target space, in a view looking down from the ceiling, for example, and forms an image on the imaging element 31c. The imaging element 31c is an image sensor represented by a CMOS (Complementary Metal Oxide Semiconductor), and generates a video signal with a frame rate of 30 frames per second, for example. This video signal is digitally encoded and output as image data. The amount of light incident on the imaging device 31c is adjusted by the diaphragm mechanism 31b.

レジスタ30は、カメラ情報30aを記憶する。カメラ情報30aは、例えばオートゲインコントロール機能の状態、ゲインの値、露光時間などの、撮像部31に関する情報、あるいは画像センサ3それ自体に関する情報である。 The register 30 stores camera information 30a. The camera information 30a is information about the imaging unit 31, such as the state of the auto gain control function, gain value, and exposure time, or information about the image sensor 3 itself.

記憶部32は、DRAM(Dynamic Random Access Memory)、SDRAM(Synchronous Dynamic RAM)、EPROM(Erasable Programmable ROM)などの半導体メモリであり、撮像部31により取得された画像データ32a、実施形態に係わる各種の機能をプロセッサ33に実行させるためのプログラム32b、画像センサを一意に区別するためのセンサID(IDentification)32cなどを記憶する。 The storage unit 32 is a semiconductor memory such as DRAM (Dynamic Random Access Memory), SDRAM (Synchronous Dynamic RAM), EPROM (Erasable Programmable ROM), and stores image data 32a acquired by the imaging unit 31 and various It stores a program 32b for causing the processor 33 to execute a function, a sensor ID (IDentification) 32c for uniquely identifying an image sensor, and the like.

プロセッサ33は、記憶部32に記憶されたプログラムをロードし、実行することで、実施形態において説明する各種の機能を実現する。プロセッサ33は、例えばマルチコアCPU(Central Processing Unit)を備え、画像処理を高速で実行することについてチューニングされたLSI(Large Scale Integration)である。FPGA(Field Programmable Gate Array)等でプロセッサ15を構成することもできる。MPU(Micro Processing Unit)もプロセッサの一つである。
通信部34は、センサネットワーク100に接続可能で、通信相手先(コントローラ500等)とのデータの授受を仲介する。
The processor 33 loads and executes programs stored in the storage unit 32 to implement various functions described in the embodiments. The processor 33 is, for example, a multi-core CPU (Central Processing Unit) and is an LSI (Large Scale Integration) tuned to execute image processing at high speed. The processor 15 can also be configured with an FPGA (Field Programmable Gate Array) or the like. An MPU (Micro Processing Unit) is also one of the processors.
The communication unit 34 is connectable to the sensor network 100 and mediates the transfer of data with a communication partner (controller 500 or the like).

ところで、プロセッサ33は、実施形態に係る処理機能として、人物検出部33a、椅子検出部33b、および判定部33cを備える。人物検出部33a、椅子検出部33b、および判定部33cは、例えば、プロセッサ33のレジスタにロードされたプログラム32bに従い、プロセッサ33が演算処理を実行する過程で生成される、プロセスである。 By the way, the processor 33 includes a person detection unit 33a, a chair detection unit 33b, and a determination unit 33c as processing functions according to the embodiment. The person detection unit 33a, the chair detection unit 33b, and the determination unit 33c are processes generated in the course of the processor 33 executing arithmetic processing according to the program 32b loaded in the register of the processor 33, for example.

人物検出部33aは、記憶部32に蓄積された画像データ32aを所定のアルゴリズムで解析して視野内の人物(人)を検出し、人物の位置情報を示す人検出情報を生成する。椅子検出部33bは、画像データ32aを所定のアルゴリズムで解析して視野内の椅子を検出し、椅子の位置情報を示す椅子検出情報を生成する。位置情報は、対象空間における絶対座標系の位置座標であっても良いし、画像センサ3-1~3-nごとに設定された座標系における位置座標であっても良い。 The person detection unit 33a analyzes the image data 32a accumulated in the storage unit 32 using a predetermined algorithm, detects a person (person) within the field of view, and generates person detection information indicating the position information of the person. The chair detection unit 33b analyzes the image data 32a with a predetermined algorithm to detect a chair within the field of view, and generates chair detection information indicating the position information of the chair. The positional information may be positional coordinates in an absolute coordinate system in the target space, or may be positional coordinates in a coordinate system set for each of the image sensors 3-1 to 3-n.

画像データ32aを解析することで、例えば、輝度勾配方向ヒストグラム(histograms of oriented gradients:HOG)特徴量、コントラスト、解像度、S/N比、および色調などの特徴量を計算することができる。また、輝度勾配方向共起ヒストグラム(Co-occurrence HOG:Co-HOG)特徴量、Haar-Like特徴量なども知られている。このような特徴量に基づいて、視野内の対象(オブジェクト)を識別することが可能である。あるいは、検出対象(人、または椅子)の形状情報を格納する辞書データを用いたパターン認識等の手法によっても、視野内の対象を識別することが可能である。 By analyzing the image data 32a, features such as histograms of oriented gradients (HOG) features, contrast, resolution, signal-to-noise ratio, and color tone can be calculated. In addition, luminance gradient direction co-occurrence histogram (Co-occurrence HOG: Co-HOG) feature amount, Haar-Like feature amount, etc. are also known. Objects within the field of view can be identified based on such feature amounts. Alternatively, it is also possible to identify the target within the field of view by a method such as pattern recognition using dictionary data that stores the shape information of the detection target (person or chair).

判定部33cは、人検出情報と椅子検出情報とに基づいて、座席ごとに空席または使用中のいずれかを判定し、座席状態情報を生成する。例えば、人検出情報に示される人の位置座標と、椅子検出情報に示される椅子の位置座標とから算出される人と椅子との距離が既定値以下であれば、判定部33cは、その椅子が使用中であると判定し、その椅子に係わる座席も使用中であると判定する。 Based on the person detection information and the chair detection information, the determination unit 33c determines whether each seat is vacant or in use, and generates seat state information. For example, if the distance between the person and the chair calculated from the position coordinates of the person indicated by the person detection information and the position coordinates of the chair indicated by the chair detection information is equal to or less than a predetermined value, the determination unit 33c determines that the chair is in use, and the seat associated with that chair is also in use.

図4は、図3に示される機能ブロック間での情報の流れの一例を示す図である。撮像部31で取得された画像データは人物検出部33a、椅子検出部33bに渡される。人物検出部33aは、画像データを解析して人検出情報を生成し、この人検出情報を判定部33cおよび通信部34に渡す。人検出情報は、図5に示されるように、例えば人検出ID(IDentification)に、検出位置を対応付けて生成される情報である。人検出IDは、画像データ内に人として検出された対象の識別子であり、概ね、個別の人物に対応付けられる。検出位置は、人検出IDを付与された対象の検出位置座標を示すもので、例えば検出元の画像センサでのXY座標系における数値で表される。 FIG. 4 is a diagram showing an example of information flow between the functional blocks shown in FIG. The image data acquired by the imaging unit 31 is passed to the person detection unit 33a and the chair detection unit 33b. The human detection unit 33 a analyzes the image data to generate human detection information, and passes this human detection information to the determination unit 33 c and the communication unit 34 . The human detection information is, for example, information generated by associating a detection position with a human detection ID (IDentification), as shown in FIG. A person detection ID is an identifier of an object detected as a person in image data, and is generally associated with an individual person. The detection position indicates the detection position coordinates of the object assigned the human detection ID, and is represented by, for example, numerical values in the XY coordinate system of the image sensor that is the detection source.

椅子検出部33bは、画像データを解析して椅子検出情報を生成し、この椅子検出情報を判定部33cに渡す。
椅子検出情報は、図6に示されるように、例えば、椅子検出IDに検出位置を対応付けて生成される情報である。椅子検出IDは、画像データ内に椅子として検出された対象の識別子である。検出位置は、椅子検出IDを付与された対象の検出位置座標を示すもので、例えば検出元の画像センサでのXY座標系における数値で表される。
The chair detection unit 33b analyzes the image data to generate chair detection information, and passes this chair detection information to the determination unit 33c.
The chair detection information is, for example, information generated by associating a detection position with a chair detection ID, as shown in FIG. A chair detection ID is an identifier of an object detected as a chair in the image data. The detected position indicates the detected position coordinates of the object assigned the chair detection ID, and is represented by, for example, numerical values in the XY coordinate system of the image sensor that is the detection source.

なお、椅子検出IDに、検出された椅子の型、種別、タイプ、特徴などを示す情報(検出タイプ)を対応付けてもよい。図6においては3種類の椅子が検出されたことが示され、それぞれ数値1,2,3で区別されている。 The chair detection ID may be associated with information (detection type) indicating the shape, classification, type, characteristics, and the like of the detected chair. FIG. 6 shows that three types of chairs have been detected, distinguished by numerical values 1, 2, and 3, respectively.

人検出情報と椅子検出情報とを取得した判定部33cは、人の位置座標と、椅子の位置座標とに基づいて、三平方の定理等を用いて人と椅子との距離を算出する。そして、算出された距離が既定の閾値以下であれば、判定部33cは、椅子の近くの人にその椅子が使用されていると判定し、そうでなければ、その椅子は空席と判定する。判定部33cは、椅子(座席)ごとに使用中/空席の判定を行い、その結果に基づいて、座席の状態を示す座席状態情報を生成する。生成された座席状態情報は通信部34に渡される。 The determination unit 33c that has acquired the human detection information and the chair detection information calculates the distance between the person and the chair using the Pythagorean theorem or the like based on the positional coordinates of the person and the positional coordinates of the chair. If the calculated distance is equal to or less than a predetermined threshold, the determination unit 33c determines that the chair is being used by a person near the chair, and otherwise determines that the chair is vacant. The determination unit 33c determines whether each chair (seat) is in use or vacant, and based on the result, generates seat state information indicating the state of the seat. The generated seat state information is passed to the communication unit 34 .

図7は、座席状態情報の一例を示す図である。座席状態情報は、座席を区別するための座席IDに、その位置座標、および、椅子が使用中か空席かを示す情報を対応付けた情報である。なお、座席状態情報に、椅子の検出タイプを含めてもよい。 FIG. 7 is a diagram showing an example of seat state information. The seat state information is information in which a seat ID for distinguishing a seat is associated with its position coordinates and information indicating whether the chair is in use or vacant. The seat state information may include the detection type of the chair.

椅子の状態は、使用中か、空席かの2つの状態(True/False、または0/1など)で区別されるのに限らない。例えば、椅子が使用中である確度を連続的な数値(例えば0~1)で表すようにしても良い。または、椅子が使用中である確率を0%~100%の間の値で表してもよい。あるいは、椅子が使用中である確度を段階的なランク(整数の値)で表すようにしてもよい。
座席状態情報と人検出情報とを渡された通信部34(図4)は、これらの情報を、例えば隣接する画像センサに、自らのセンサIDとともに送信する。
The state of the chair is not limited to being distinguished by two states (True/False, 0/1, etc.) of being in use and being vacant. For example, the probability that the chair is in use may be represented by a continuous numerical value (eg, 0 to 1). Alternatively, the probability that the chair is in use may be represented by a value between 0% and 100%. Alternatively, the probability that the chair is in use may be represented by graded ranks (integer values).
The communication unit 34 (FIG. 4), which receives the seat state information and the human detection information, transmits these information to, for example, an adjacent image sensor together with its own sensor ID.

図8は、第1の実施形態における情報伝達の一例を示す図である。各画像センサ3は、逐次、座席状態情報(および人検出情報)を生成出力し、これらの情報は例えばバケツリレー方式で順次、隣り合う画像センサを経由してゲートウェイ200に伝送される。ゲートウェイ200はセンサID付きの座席状態情報、および人検出情報を、LAN経由でコントローラ500、および/またはルータ300に送信する。 FIG. 8 is a diagram showing an example of information transmission in the first embodiment. Each image sensor 3 sequentially generates and outputs seat state information (and human detection information), and this information is sequentially transmitted to the gateway 200 via adjacent image sensors in, for example, a bucket brigade system. Gateway 200 transmits seat state information with sensor ID and human detection information to controller 500 and/or router 300 via LAN.

以上説明したように第1の実施形態では、画像センサ3で取得された画像データを画像処理して、人の位置座標と、椅子の位置座標とを検出し、それぞれの位置座標に基づいて人と椅子との間の距離を算出する。そして、画像センサ3に判定部33cを備え、人と椅子との距離が規定値以下であれば、椅子は使用中であると判定するようにした。このようにしたので、椅子及び座席が使用中か、空席かを、客観的な指標に基づいて、エッジデバイス側で判定することができる。 As described above, in the first embodiment, the image data acquired by the image sensor 3 is image-processed to detect the positional coordinates of the person and the positional coordinates of the chair, and the positional coordinates of the person are detected based on the respective positional coordinates. and the chair. The image sensor 3 is provided with a determination unit 33c, and if the distance between the person and the chair is equal to or less than a specified value, it is determined that the chair is in use. With this arrangement, it is possible for the edge device to determine whether the chair and seat are in use or empty based on objective indicators.

既存の技術で、人の位置と椅子の位置との対応付けに言及したものはなく、まして、椅子が使用中か空席であるかを判定する技術は知られていない。椅子の位置をある程度固定された値として扱い、位置情報から座席の状況を推定することはできるが、そもそも椅子は移動するので、その場合は座席の状況を正しく把握することができなかった。 None of the existing techniques refer to the correspondence between the position of a person and the position of a chair, much less the technique of determining whether a chair is in use or vacant. It is possible to treat the position of the chair as a fixed value to some extent and estimate the seat situation from the position information.

また、既存のセンサ技術では数メートル範囲の検出エリアに人が1人以上存在するか/不在かを検出できるのみで、詳細な位置情報を取得することはできない。複数の人を識別することができない。座席に人が座って使用しているか否を計測することも、特に店舗やオフィスなどの広範囲のエリアに適用することは難しい。 In addition, existing sensor technology can only detect the presence/absence of one or more people in a detection area of several meters, and cannot acquire detailed position information. Inability to identify multiple persons. It is also difficult to measure whether a person is sitting on a seat and using it, especially in a wide area such as a store or office.

これに対し、第1の実施形態では、画像センサからの画像データを処理して椅子を検出し、その位置座標を取得し、人の位置情報と併せて座席の状況(椅子が使用されている/椅子が使用されていない)を判定する。従って、椅子が移動しても正しく状態を把握できるようになる。さらに初期導入時に、椅子の位置を人手で入力せず自動化することができる。これらのことから第1の実施形態によれば、座席の状態を正確に把握できるようにした座席状態センシングシステム、座席状態判定方法、および画像センサを提供することが可能となる。 On the other hand, in the first embodiment, the image data from the image sensor is processed to detect a chair, its position coordinates are acquired, and together with the position information of the person, the situation of the seat (i.e., whether the chair is being used / chair not in use). Therefore, even if the chair moves, the state can be correctly grasped. Furthermore, at the time of initial introduction, the position of the chair can be automated without manual input. For these reasons, according to the first embodiment, it is possible to provide a seat state sensing system, a seat state determination method, and an image sensor that enable an accurate grasp of the seat state.

[第2の実施形態]
第1の実施形態では、椅子の位置が変化することを想定し、画像センサにより椅子の位置情報を取得した。第2の実施形態では、例えばレストランや喫茶店のソファー等のように、椅子が固定されていることを想定する。
[Second embodiment]
In the first embodiment, assuming that the position of the chair changes, the image sensor acquires the position information of the chair. In the second embodiment, it is assumed that the chair is fixed, such as a sofa in a restaurant or coffee shop.

図9は、画像センサ3の他の例を示すブロック図である。第2の実施形態において、画像センサ3は、記憶部32に椅子位置情報32dを記憶する。椅子位置情報32dは、それぞれの椅子にその位置座標を対応付けて記録したデータベースである。 FIG. 9 is a block diagram showing another example of the image sensor 3. As shown in FIG. In the second embodiment, the image sensor 3 stores chair position information 32d in the storage unit 32. FIG. The chair position information 32d is a database in which position coordinates are associated with each chair and recorded.

図10は、図9に示される機能ブロック間での情報の流れの一例を示す図である。撮像部31で取得された画像データは人物検出部33aに渡される。人物検出部33aは、画像データを解析して人検出情報を生成し、この人検出情報を判定部33cおよび通信部34に渡す。 FIG. 10 is a diagram showing an example of information flow between functional blocks shown in FIG. The image data acquired by the imaging unit 31 is passed to the person detection unit 33a. The human detection unit 33 a analyzes the image data to generate human detection information, and passes this human detection information to the determination unit 33 c and the communication unit 34 .

人検出情報を取得した判定部33cは、さらに椅子位置情報32dを記憶部32から読み出し、人の位置座標と椅子の位置座標とに基づいて、人と椅子との距離を算出する。算出された距離が閾値以下であれば、判定部33cはその椅子が使用されていると判定し、そうでなければ、その椅子は空席と判定する。判定の結果に基づいて生成された座席状態情報は通信部34に渡され、人検出情報、センサIDとともに通信相手先に伝送される。 The determination unit 33c that has acquired the human detection information further reads the chair position information 32d from the storage unit 32, and calculates the distance between the person and the chair based on the position coordinates of the person and the chair. If the calculated distance is equal to or less than the threshold, the determination unit 33c determines that the chair is in use, otherwise determines that the chair is vacant. The seat state information generated based on the determination result is passed to the communication unit 34 and transmitted to the communication partner together with the person detection information and the sensor ID.

第2の実施形態では、固定された椅子を前提として、椅子の位置情報を予め画像センサ3に設定するようにした。そして、画像センサにより人の位置情報を取得し、椅子の位置情報を利用して人と椅子の位置関係を求め、個々の椅子が使用中か、空席かを判定するようにした。従って、第2の実施形態によっても、座席の状態を正確に把握できるようになる。 In the second embodiment, assuming that the chair is fixed, the position information of the chair is set in the image sensor 3 in advance. Then, the positional information of the person is acquired by the image sensor, the positional relationship between the person and the chair is obtained using the positional information of the chair, and it is determined whether the individual chair is in use or vacant. Therefore, according to the second embodiment as well, it is possible to accurately grasp the state of the seat.

[第3の実施形態]
図11は、画像センサ3の他の例を示すブロック図である。第3の実施形態において、画像センサ3は、図3の構成に加えて、さらに、記憶部32に椅子位置情報32dを記憶する。
[Third Embodiment]
FIG. 11 is a block diagram showing another example of the image sensor 3. As shown in FIG. In the third embodiment, the image sensor 3 further stores chair position information 32d in the storage unit 32 in addition to the configuration shown in FIG.

図12は、図11に示される機能ブロック間での情報の流れの一例を示す図である。第3の実施形態においては、判定部33cは、人検出情報と椅子検出情報とに加えて、椅子位置情報を取得する。そして、これら3種類の情報に基づいて、判定部33cは、椅子の使用状態を判定する。
このようにしたので、第3の実施形態によっても、座席の状態を正確に把握できるようになる。加えて、判定の精度を向上させることができる。
FIG. 12 is a diagram showing an example of information flow between functional blocks shown in FIG. In the third embodiment, the determination unit 33c acquires chair position information in addition to person detection information and chair detection information. Then, based on these three types of information, the determination unit 33c determines the use state of the chair.
With this configuration, it is possible to accurately grasp the state of the seat also according to the third embodiment. In addition, accuracy of determination can be improved.

[第4の実施形態]
図13は、画像センサ3の他の例を示すブロック図である。第4の実施形態において、画像センサ3は、記憶部32に辞書データ32eを記憶する。
[Fourth embodiment]
FIG. 13 is a block diagram showing another example of the image sensor 3. As shown in FIG. In the fourth embodiment, the image sensor 3 stores dictionary data 32e in the storage unit 32. FIG.

辞書データ32eは、画像センサ3における検出項目(人、物、男性、女性など)に応じて用意される、いわばテンプレートデータに類するデータである。画像センサ3で取得された画像データに対し、例えば『椅子』の検出向けに用意された、椅子の形状情報を有する辞書データ32eを用いてテンプレートマッチング処理を行うことで、画像データから椅子が検出される。その精度や椅子のタイプ(オフィスチェア、ソファー、座椅子など)や色を区別可能とするために、多様な辞書データ32eが予め用意される。このほか、車椅子、ベビーカー、子供、カート、白杖利用者、徘徊老人、不審人物、迷子、逃げ遅れた人物、等を検出するための辞書データを作成することができる。作成方法の一例としては、例えばサポートベクトルマシンやボルツマンマシンなどの、機械学習(Machine-Learning)の枠組みを利用することができる。 The dictionary data 32e is data similar to so-called template data prepared according to detection items (person, object, male, female, etc.) in the image sensor 3. FIG. A chair is detected from the image data by performing template matching processing on the image data acquired by the image sensor 3 using, for example, the dictionary data 32e having the shape information of the chair prepared for the detection of "chair". be done. A variety of dictionary data 32e are prepared in advance in order to distinguish the accuracy, type of chair (office chair, sofa, legless chair, etc.) and color. In addition, it is possible to create dictionary data for detecting wheelchairs, strollers, children, carts, white cane users, loitering old people, suspicious persons, lost children, persons who failed to escape, and the like. As an example of the creation method, a machine-learning framework such as a support vector machine or a Boltzmann machine can be used.

図14は、図13に示される機能ブロック間での情報の流れの一例を示す図である。椅子には様々な型/形状があり、それぞれに辞書が必要となる。しかし、現存する全ての椅子の型/形状の情報含む辞書を作成しようにも、データのサイズがあまりにも大きくなり、記憶領域や演算処理能力に限りのある組み込み用途(画像センサなど)では取り扱うことが難しい。 14 is a diagram showing an example of information flow between the functional blocks shown in FIG. 13. FIG. There are various types/shapes of chairs, each of which requires a dictionary. However, even if we try to create a dictionary containing information on all existing chair types/shapes, the size of the data would be too large to handle for embedded applications (such as image sensors) with limited memory space and processing power. is difficult.

そこで、第4の実施形態では、椅子の型ごとの辞書データ(辞書:椅子1~辞書:椅子n)を作成し、画像センサ3に予め記憶させる。そして、各椅子の辞書データを順次切り替えて椅子検出処理を実施する。画像センサ3が設置される対象空間に存在する椅子の種類はある程度限られており、オフィス空間などでは特にその傾向が強い。そこで、存在するであろう椅子の型を予め想定し、複数の辞書を切り替えて使用することで、柔軟に、かつ、椅子を高精度で検出することが可能となる。 Therefore, in the fourth embodiment, dictionary data for each chair type (dictionary: chair 1 to dictionary: chair n) is created and stored in the image sensor 3 in advance. Then, the dictionary data of each chair is switched sequentially to carry out chair detection processing. The types of chairs that exist in the target space where the image sensor 3 is installed are limited to some extent, and this tendency is particularly strong in office spaces and the like. Therefore, it is possible to flexibly and accurately detect a chair by assuming in advance the types of chairs that are likely to exist and switching between a plurality of dictionaries.

図14に示されるように、例えば椅子に関するn個の辞書データを画像センサ3の記憶部32に格納する。椅子検出部33bは、辞書データを順番に切り替えつ画像データを処理し、椅子を検出する。椅子が検出された際にどの辞書を用いたかを示す情報を付与することで、どの型の椅子が検出されたのかを区別することもできる。このようにしたので、第4の実施形態によっても、座席の状態を正確に把握できるようになる。加えて、判定の精度を向上させることができる。 As shown in FIG. 14, for example, n dictionary data relating to chairs are stored in the storage unit 32 of the image sensor 3 . The chair detection unit 33b processes image data while sequentially switching dictionary data to detect a chair. By adding information indicating which dictionary was used when a chair was detected, it is possible to distinguish which type of chair was detected. With this configuration, it is possible to accurately grasp the state of the seat also according to the fourth embodiment. In addition, accuracy of determination can be improved.

[第5の実施形態]
図15は、画像センサ3の他の例を示すブロック図である。第5の実施形態において、画像センサ3は、プロセッサ33に検出部33dを備え、記憶部32に辞書データ32eを記憶する。検出部33dは、予め用意された辞書データに基づいて対象空間における対象を検出する機能を備え、辞書データを切り替えることで様々な対象を検出することができる。つまり第5の実施形態では、共通の検出部により、人物および椅子の双方を検出する。図16に示されるように、椅子検出については(辞書:椅子1~辞書:椅子n)のn通りの辞書を用い、人検出については人検出用の辞書(辞書:人)が用いられる。そして、(辞書:椅子1~辞書:椅子n)のいずれかを用いて検出された対象は椅子として認識され、椅子検出情報が生成される。一方、(辞書:人)を用いて検出された対象は人として認識され、人検出情報が生成される。
[Fifth Embodiment]
FIG. 15 is a block diagram showing another example of the image sensor 3. As shown in FIG. In the fifth embodiment, the image sensor 3 includes a detection section 33d in the processor 33 and stores dictionary data 32e in the storage section 32 . The detection unit 33d has a function of detecting objects in the object space based on dictionary data prepared in advance, and can detect various objects by switching the dictionary data. That is, in the fifth embodiment, both the person and the chair are detected by the common detection unit. As shown in FIG. 16, n different dictionaries (dictionary: chair 1 to dictionary: chair n) are used for chair detection, and a dictionary for human detection (dictionary: person) is used for human detection. Then, an object detected using any one of (dictionary: chair 1 to dictionary: chair n) is recognized as a chair, and chair detection information is generated. On the other hand, an object detected using (dictionary: person) is recognized as a person, and person detection information is generated.

ところで、椅子とは違って人は自発的に動くことから、人の動きを的確に把握するためには、検出の周期を椅子よりも短くする必要がある。しかし、多数の型の椅子の検出処理に人の検出を組み入れると、人の検出に係る処理時間が長くなってしまう。 By the way, unlike a chair, a person moves voluntarily. Therefore, in order to accurately grasp the movement of a person, it is necessary to make the detection cycle shorter than that of the chair. However, if human detection is included in the detection process for many types of chairs, the processing time for human detection becomes long.

つまり、画像センサで椅子の検出処理も行うと、画像処理の処理量が増えるため、画像センサの計算リソースを超えてしまい、センシングの間隔が延びてレスポンスが悪化することが考えられる。これは検出精度の低下などをもたらすので、対処を要する。 In other words, if the image sensor also performs chair detection processing, the processing amount of the image processing increases, which may exceed the computational resources of the image sensor, extending the sensing interval and degrading the response. Since this causes a decrease in detection accuracy and the like, countermeasures are required.

逆に、椅子が自発的に動くことはなく、椅子が移動した場合には人の介在があると見做せることから、人検出に対して椅子の検出周期を長くとったとしても検出精度の低下は許容される程度に小さい。検出対象のこのような特性に基づいて、第5の実施形態では、人検出の周期と、椅子検出の周期とを最適化する。 Conversely, the chair does not move spontaneously, and when the chair moves, it can be assumed that there is human intervention. The drop is acceptably small. Based on such characteristics of the detection target, the fifth embodiment optimizes the period of human detection and the period of chair detection.

図17は、第5の実施形態でのプロセッサ33の処理手順の一例を示すフローチャートである。プロセッサ33は、先ず、(人)の辞書データを用いて対象を検出する(ステップS1)。次に、辞書データを(椅子1)に切り替えて対象を検出し(ステップS2)、次に、再度、(人)の辞書データを用いて対象を検出する(ステップS3)。次のステップS4では(椅子2)の辞書データが使用され、次のステップでは再び(人)の辞書データが用いられる。ステップS5で(人)の辞書データが用いられた後(椅子n)の辞書データを用いた検出が終わると、処理手順は再びステップS1に戻って繰り替えされる。 FIG. 17 is a flow chart showing an example of the processing procedure of the processor 33 in the fifth embodiment. The processor 33 first detects an object using the dictionary data of (person) (step S1). Next, the dictionary data is switched to (chair 1) to detect the object (step S2), and then the object is detected again using the dictionary data of (person) (step S3). In the next step S4, the dictionary data of (chair 2) is used, and in the next step, the dictionary data of (person) is used again. After the dictionary data of (person) is used in step S5 and the detection using the dictionary data of (chair n) is completed, the processing procedure returns to step S1 and is repeated.

このように、複数の型の椅子データ(1~n)が順次切り替えられるたびに、人の辞書データを用いた検出処理が繰り返し実行される。つまり人と椅子を交互に検出し、かつ、椅子の検出処理は切り替えごとに1種類(1つの辞書)とすることで、人の検出処理と多種の椅子の検出処理とを、精度を犠牲にすることなく両立することができる。 In this way, the detection process using the person's dictionary data is repeatedly executed each time the plural types of chair data (1 to n) are sequentially switched. In other words, people and chairs are detected alternately, and the chair detection process is set to one type (one dictionary) for each switching, so that the human detection process and the detection process for various chairs can be performed at the expense of accuracy. can be compatible without

以上説明したように第5の実施形態では、検出部33dで辞書データを切り替えることで、人と椅子とを検出する。人の検出には例えば1種類の辞書データを用い、椅子の検出にはn通りの辞書データを用いる。そして、動かないと見做せる椅子の検出の頻度を低くし、動く人の検出の頻度を高くする。ただし椅子の検出に際しては、使用する辞書データを順次切り替えるようにした。このようにすることで、人の検出と、複数の型の椅子の検出とにバランスよく処理リソースを配分することができる。もちろん、時間の経過に伴う辞書データの切り替えの手法は図17の例に限られるものではない。 As described above, in the fifth embodiment, the detection unit 33d switches dictionary data to detect a person and a chair. For example, one type of dictionary data is used to detect a person, and n types of dictionary data are used to detect a chair. Then, the frequency of detecting a chair that can be regarded as not moving is decreased, and the frequency of detecting a moving person is increased. However, when detecting a chair, the dictionary data to be used is switched sequentially. By doing so, processing resources can be distributed in a well-balanced manner to detection of people and detection of a plurality of types of chairs. Of course, the method of switching dictionary data over time is not limited to the example of FIG.

このようにしたので、第5の実施形態によっても、座席の状態を正確に把握できるようになる。また、人の検出と、多種の椅子の検出とを精度の劣化なく両立することができる。 Since this is done, it is possible to accurately grasp the state of the seat also according to the fifth embodiment. Moreover, it is possible to achieve both detection of a person and detection of various types of chairs without deterioration in accuracy.

[第6の実施形態]
図18は、画像センサ3の他の例を示すブロック図である。第6の実施形態において、画像センサ3のプロセッサ33は、その処理機能として画像データ処理部33eを備える。画像データ処理部33eは、図19に示されるように、撮像部31からの画像データにデータ圧縮、コンテナ処理などの処理を施し、ネットワーク伝送に適した形態の伝送データを生成して通信部34に渡す。通信部34は、画像データを含む伝送データを人検出情報、椅子検出情報、センサIDとともにゲートウェイ200経由でクラウド400向けに送出する。ゲートウェイ200およびルータ300は、各画像センサ3から送出されたデータをクラウド400に向け中継する。
[Sixth Embodiment]
FIG. 18 is a block diagram showing another example of the image sensor 3. As shown in FIG. In the sixth embodiment, the processor 33 of the image sensor 3 has an image data processing section 33e as its processing function. As shown in FIG. 19, the image data processing unit 33e performs processing such as data compression and container processing on the image data from the imaging unit 31 to generate transmission data in a form suitable for network transmission. pass to The communication unit 34 sends transmission data including image data to the cloud 400 via the gateway 200 together with the person detection information, the chair detection information, and the sensor ID. Gateway 200 and router 300 relay data sent from each image sensor 3 to cloud 400 .

図20は、第6の実施形態における情報伝達の一例を示す図である。クラウド400は、例えばデータセンタ、あるいは分散配置されたサーバ装置群などに実装される処理機能として、画像処理部400a、センサ管理部400b、辞書生成部400c、および、画像データベース401を備える。 FIG. 20 is a diagram showing an example of information transmission in the sixth embodiment. The cloud 400 includes an image processing unit 400a, a sensor management unit 400b, a dictionary generation unit 400c, and an image database 401 as processing functions implemented in, for example, a data center or a group of distributed server devices.

画像処理部400aは、複数の画像センサ3-1~3-nから収集した画像データを処理して、各画像データの特徴量の抽出などを行う。
センサ管理部400bは、複数の画像センサ3-1~3-nを個別に管理し、指示メッセージ(電文)の宛先を指定するなどの機能を有する。
The image processing unit 400a processes image data collected from a plurality of image sensors 3-1 to 3-n, and extracts feature amounts of each image data.
The sensor management unit 400b has functions such as individually managing a plurality of image sensors 3-1 to 3-n and designating destinations of instruction messages (telegrams).

辞書生成部400cは、画像処理部400aから渡される画像データの特徴量などに基づいて、検出対象(人、椅子など)に係わる辞書データを生成する。 The dictionary generation unit 400c generates dictionary data related to a detection target (person, chair, etc.) based on the feature amount of the image data passed from the image processing unit 400a.

画像データベース401は、画像センサ3-1~3-nから収集された画像データを蓄積する。 The image database 401 accumulates image data collected from the image sensors 3-1 to 3-n.

辞書データの作成には、椅子の型ごとに多方向からの撮影画像データが必要となる。また、辞書データの作成には多くの計算機リソースが必要となることから、画像センサ3およびゲートウェイ200の処理機能では限界がある。そこで第6の実施形態では、画像データをクラウド400へアップロードし、クラウド400側でデータ処理を行って辞書データを作成し、画像センサ3へ配布するようにした。 To create dictionary data, image data taken from multiple directions is required for each type of chair. In addition, the processing functions of the image sensor 3 and the gateway 200 are limited because the creation of dictionary data requires a large amount of computer resources. Therefore, in the sixth embodiment, image data is uploaded to the cloud 400 , data processing is performed on the cloud 400 side to create dictionary data, and the dictionary data is distributed to the image sensor 3 .

図20において、例えば以下の手順により辞書データが生成される。
(1) 新たな椅子の辞書データを作成するため、クラウド400のセンサ管理部400bは、ゲートウェイ200を介して、画像センサ3に画像取得要求を送る。
(2) 要求を受けた画像センサ3は、画像データを伝送データに格納し、ゲートウェイ200、ルータ300経由でクラウド400に向け送信する。
(3) クラウド400は、画像センサ3からの画像データを受信し、画像データベース401に蓄積する。また、クラウド400の画像処理部400aは、集積した画像データから、辞書作成対象の椅子の領域の画像を切り出す。
(4) 辞書生成部400cは、切り出された領域の画像データを処理し、椅子Aについての辞書データ(例えばCoHOGをパラメータとする辞書データ)を生成する。
(5) 画像センサ3-1~3-nは、生成された新しい辞書データの取得要求をゲートウェイ200へ送る。
(6) ゲートウェイ200は、新たな辞書データをクラウド400から取得する。
(7) ゲートウェイ200は、新たな辞書データを全ての画像センサ3、または指定された画像センサ3宛に送信する。
(8) 新たな辞書データを取得した画像センサ3は、記憶部32に記憶された辞書データを新たな辞書データに更新し、記憶する。
In FIG. 20, dictionary data is generated by, for example, the following procedure.
(1) In order to create new chair dictionary data, the sensor management unit 400b of the cloud 400 sends an image acquisition request to the image sensor 3 via the gateway 200 .
(2) Upon receiving the request, the image sensor 3 stores the image data in transmission data and transmits the data to the cloud 400 via the gateway 200 and router 300 .
(3) Cloud 400 receives image data from image sensor 3 and stores it in image database 401 . Further, the image processing unit 400a of the cloud 400 cuts out the image of the area of the chair for which the dictionary is to be created from the accumulated image data.
(4) The dictionary generation unit 400c processes the image data of the clipped region and generates dictionary data (for example, dictionary data using CoHOG as a parameter) about chair A.
(5) The image sensors 3-1 to 3-n send requests to the gateway 200 to acquire the new dictionary data generated.
(6) Gateway 200 acquires new dictionary data from cloud 400 .
(7) Gateway 200 transmits the new dictionary data to all image sensors 3 or designated image sensors 3 .
(8) The image sensor 3 that has acquired the new dictionary data updates the dictionary data stored in the storage unit 32 with the new dictionary data and stores the new dictionary data.

以上説明したように第6の実施形態では、クラウド400に画像データをアップロードし、クラウド400側で辞書データを生成し、生成した辞書データを画像センサ3にダウンロードするようにした。このようにしたので、多様かつ、新しく登場する椅子を検出するための辞書データを作成することができる。しかもクラウド400のリソースを利用しているので、エッジ側のデバイスに過度の負担がかかることもない。 As described above, in the sixth embodiment, image data is uploaded to the cloud 400 , dictionary data is generated on the cloud 400 side, and the generated dictionary data is downloaded to the image sensor 3 . By doing so, it is possible to create dictionary data for detecting various and newly appearing chairs. Moreover, since the resources of the cloud 400 are used, the device on the edge side is not overloaded.

このようにしたので、第6の実施形態によっても、座席の状態を正確に把握できるようになる。加えて、エッジデバイスの負荷を軽減することができる。 With this configuration, it is possible to accurately grasp the state of the seat also according to the sixth embodiment. In addition, the load on edge devices can be reduced.

[第7の実施形態]
辞書データは、必ずしもシステムベンダー側で作成し、用意する必要はない。例えば椅子を販売する什器メーカから椅子の形状情報を入手し、この情報を元に辞書データを作成することが可能である。さらには、什器メーカから辞書データそのものが配布される形態も可能である。
[Seventh Embodiment]
The dictionary data does not necessarily have to be created and prepared by the system vendor. For example, it is possible to obtain shape information of chairs from a fixture maker that sells chairs, and create dictionary data based on this information. Furthermore, it is also possible to distribute the dictionary data itself from the furniture maker.

図21は、第7の実施形態における情報伝達の一例を示す図である。第7の実施形態においては、例えば以下の手順により辞書データが配布される。以下の手順は、例えば、椅子を配置されたエリアの画像センサに、その椅子の辞書データを配布する際に実施されることができる。
(10) 例えば什器メーカにより、ローカルの開発環境などで生成された辞書データ(椅子A)が、予めクラウド400のサーバにアップロードされ、記憶される。
(11) 画像センサ3-1~3-nは、生成された新しい辞書データの取得要求をゲートウェイ200へ送る。
(12) ゲートウェイ200は、新たな辞書データをクラウド400から取得する。
(13) ゲートウェイ200は、新たな辞書データを全ての画像センサ3、または指定された画像センサ3宛に送信する。
(14) 新たな辞書データを取得した画像センサ3は、記憶部32に記憶された辞書データを新たな辞書データに更新し、記憶する。
FIG. 21 is a diagram showing an example of information transmission in the seventh embodiment. In the seventh embodiment, dictionary data is distributed according to the following procedure, for example. The following procedure can be implemented, for example, in distributing the chair's dictionary data to the image sensors in the area where the chair is located.
(10) For example, dictionary data (chair A) generated in a local development environment or the like by a furniture maker is uploaded in advance to the server of the cloud 400 and stored.
(11) The image sensors 3-1 to 3-n send requests to the gateway 200 to acquire the new dictionary data generated.
(12) Gateway 200 acquires new dictionary data from cloud 400 .
(13) Gateway 200 transmits the new dictionary data to all image sensors 3 or designated image sensors 3 .
(14) The image sensor 3 that has acquired the new dictionary data updates the dictionary data stored in the storage unit 32 to the new dictionary data and stores the new dictionary data.

以上説明したように第7の実施形態では、予め別途用意された辞書データを対象の画像センサに配布することができる。このようにしたので、第7の実施形態によっても、座席の状態を正確に把握できるようになる。加えて、システム構築の自由度を高めることができる。 As described above, in the seventh embodiment, dictionary data separately prepared in advance can be distributed to target image sensors. Since this is done, it is possible to accurately grasp the state of the seat also according to the seventh embodiment. In addition, it is possible to increase the degree of freedom in system construction.

[第8の実施形態]
図22は、第8の実施形態に係わるゲートウェイ200の一例を示す図である。座席状態判定装置としてのゲートウェイ200は、CPUやMPU等のプロセッサ250と、ROM(Read Only Memory)220およびRAM(Random Access Memory)230を備えるコンピュータである。ゲートウェイ200は、さらに、ハードディスクドライブ(Hard Disk Drive:HDD)などの記憶部210、光学メディアドライブ260、および、インタフェース部270を備える。
[Eighth Embodiment]
FIG. 22 is a diagram showing an example of the gateway 200 according to the eighth embodiment. The gateway 200 as a seat state determination device is a computer including a processor 250 such as a CPU or MPU, a ROM (Read Only Memory) 220 and a RAM (Random Access Memory) 230 . The gateway 200 further includes a storage unit 210 such as a hard disk drive (HDD), an optical media drive 260 and an interface unit 270 .

ROM220は、BIOS(Basic Input Output System)やUEFI(Unified Extensible Firmware Interface)などの基本プログラム、および各種の設定データ等を記憶する。RAM230は、記憶部210からロードされたプログラムやデータを一時的に記憶する。 The ROM 220 stores basic programs such as BIOS (Basic Input Output System) and UEFI (Unified Extensible Firmware Interface), various setting data, and the like. RAM 230 temporarily stores programs and data loaded from storage unit 210 .

光学メディアドライブ260は、CD-ROM280などの記録媒体に記録されたディジタルデータを読み取る。ゲートウェイ200で実行される各種プログラムは、例えばCD-ROM280に記録されて頒布される。このCD-ROM280に格納されたプログラムは光学メディアドライブ260により読み取られ、記憶部210にインストールされる。 Optical media drive 260 reads digital data recorded on a recording medium such as CD-ROM 280 . Various programs executed by the gateway 200 are recorded on, for example, a CD-ROM 280 and distributed. The program stored in this CD-ROM 280 is read by the optical media drive 260 and installed in the storage section 210 .

インタフェース部270は、内部通信部270a、および外部通信部270bを備える。内部通信部270aは、センサネットワーク100に接続され、画像センサ3-1~3-nとの通信を制御する。外部通信部270bは、ビル内LANに接続され、ルータ300、コントローラ500、およびクラウド400との通信を制御する。ゲートウェイ200で実行される各種プログラムを、例えばインタフェース部270を介してクラウド400からダウンロードし、記憶部210にインストールすることもできる。インタフェース部270を介してクラウドサーバから最新のプログラムをダウンロードし、インストール済みのプログラムをアップデートすることもできる。
記憶部210は、人検出情報210a、および椅子検出情報210bを記憶する。
The interface unit 270 includes an internal communication unit 270a and an external communication unit 270b. The internal communication unit 270a is connected to the sensor network 100 and controls communication with the image sensors 3-1 to 3-n. The external communication unit 270 b is connected to the intra-building LAN and controls communication with the router 300 , the controller 500 and the cloud 400 . Various programs executed by the gateway 200 can also be downloaded from the cloud 400 via the interface unit 270 and installed in the storage unit 210 . It is also possible to download the latest program from the cloud server via the interface unit 270 and update the installed program.
The storage unit 210 stores person detection information 210a and chair detection information 210b.

プロセッサ250は、OS(Operating System)および各種のプログラムを実行する。また、プロセッサ250は、第8の実施形態に係る処理機能として、人物検出部250a、椅子検出部250b、および、判定部250cを備える。人物検出部250a、椅子検出部250b、および判定部250cは、例えば、プロセッサ250のレジスタにロードされたプログラムに従い、プロセッサ250が演算処理を実行する過程で生成される、プロセスである。すなわち第8の実施形態では、画像センサ3に搭載されていた判定部が、ゲートウェイ200に実装される。 The processor 250 executes an OS (Operating System) and various programs. The processor 250 also includes a person detection unit 250a, a chair detection unit 250b, and a determination unit 250c as processing functions according to the eighth embodiment. The person detection unit 250a, the chair detection unit 250b, and the determination unit 250c are processes generated in the course of the processor 250 executing arithmetic processing according to a program loaded in the register of the processor 250, for example. That is, in the eighth embodiment, the determination unit mounted on the image sensor 3 is mounted on the gateway 200 .

図23は、図22に示される機能ブロック間での情報の流れの一例を示す図である。図23において、ゲートウェイ200の内部通信部270aは、画像センサ3から送信された椅子検出情報および人検出情報を取得し、判定部250cに渡す。 FIG. 23 is a diagram showing an example of information flow between functional blocks shown in FIG. In FIG. 23, the internal communication unit 270a of the gateway 200 acquires the chair detection information and the person detection information transmitted from the image sensor 3, and transfers them to the determination unit 250c.

判定部250cは、人検出情報と椅子検出情報とに基づいて、座席ごとに空席または使用中のいずれかを判定し、座席状態情報を生成する。例えば、人検出情報に示される人の位置座標と、椅子検出情報に示される椅子の位置座標とから算出される人と椅子との距離が既定値以下であれば、判定部250cは、その椅子が使用中であると判定し、その椅子に係わる座席も使用中であると判定する。生成された座席状態情報は、外部通信部270bを介して例えばクラウド400宛に送出される。 The determination unit 250c determines whether each seat is vacant or in use based on the person detection information and the chair detection information, and generates seat state information. For example, if the distance between the person and the chair calculated from the position coordinates of the person indicated by the person detection information and the position coordinates of the chair indicated by the chair detection information is equal to or less than a predetermined value, the determination unit 250c determines that the chair is in use, and the seat associated with that chair is also in use. The generated seat state information is sent to, for example, the cloud 400 via the external communication unit 270b.

以上説明したように第8の実施形態では、ゲートウェイ200に判定部250cを備え、画像センサからの椅子検出情報および人検出情報に基づいて、ゲートウェイ200において座席状態情報を生成するようにした。 As described above, in the eighth embodiment, the gateway 200 is provided with the determination unit 250c, and the gateway 200 generates the seat state information based on the chair detection information and the person detection information from the image sensor.

このようにしたので、第8の実施形態によっても、座席の状態を正確に把握できるようになる。加えて、画像センサ3における処理負荷を軽減することができる。 With this configuration, it is possible to accurately grasp the state of the seat also according to the eighth embodiment. Additionally, the processing load on the image sensor 3 can be reduced.

[第9の実施形態]
図24は、画像センサ3の他の例を示すブロック図である。第9の実施形態においては、人物検出部33a、および椅子検出部33bを画像センサ3に備え、画像センサ3では人検出情報と椅子検出情報を算出してゲートウェイ200に送信する。そして、判定部をゲートウェイ200に実装し、ゲートウェイ200側で座席状態を判定するようにする。
[Ninth Embodiment]
FIG. 24 is a block diagram showing another example of the image sensor 3. As shown in FIG. In the ninth embodiment, the image sensor 3 is provided with a person detection unit 33a and a chair detection unit 33b, and the image sensor 3 calculates the person detection information and the chair detection information and transmits them to the gateway 200. FIG. Then, the determination unit is mounted in the gateway 200 so that the gateway 200 side determines the seat state.

図25は、図24に示される機能ブロック間での情報の流れの一例を示す図である。画像センサ3において、人物検出部33aにより生成された人検出情報と、椅子検出部33bにより生成された椅子検出情報は、通信部34によりセンサIDとともにゲートウェイ200に向けて送信される。図26に示されるように、人検出情報および椅子検出情報はゲートウェイ200により取得され、ゲートウェイ200において座席状態情報が生成される。座席状態情報は、センサIDとともに例えばコントローラ500に伝送され、ビル内の照明機器や空調機器の制御に利用される。 FIG. 25 is a diagram showing an example of information flow between functional blocks shown in FIG. In the image sensor 3, the person detection information generated by the person detection unit 33a and the chair detection information generated by the chair detection unit 33b are transmitted by the communication unit 34 to the gateway 200 together with the sensor ID. As shown in FIG. 26, the person detection information and the chair detection information are acquired by the gateway 200 and the seat state information is generated in the gateway 200 . The seat state information is transmitted to, for example, the controller 500 together with the sensor ID, and used to control the lighting equipment and air conditioning equipment in the building.

以上説明したように第9の実施形態でも、ゲートウェイ200に判定部を備えるようにしたので、座席の状態を正確に把握できるのに加え、画像センサ3の負荷を軽減することができる。 As described above, in the ninth embodiment as well, the gateway 200 is provided with the determination unit, so the seat state can be accurately grasped and the load on the image sensor 3 can be reduced.

[第10の実施形態]
図27は、例えばクラウド400に設けられるサーバ600の一例を示す機能ブロック図である。サーバ600は、画像センサ3からの人検出情報及び椅子検出情報を取得する通信処理部600bと、取得した人検出情報及び椅子検出情報に基づいて座席状態情報を生成する判定部600aとを備える。
[Tenth embodiment]
FIG. 27 is a functional block diagram showing an example of the server 600 provided in the cloud 400, for example. The server 600 includes a communication processing unit 600b that acquires human detection information and chair detection information from the image sensor 3, and a determination unit 600a that generates seat state information based on the acquired human detection information and chair detection information.

判定部600aは、人検出情報と椅子検出情報とに基づいて、座席ごとに空席または使用中のいずれかを判定し、座席状態情報を生成する。例えば、人検出情報に示される人の位置座標と、椅子検出情報に示される椅子の位置座標とから算出される人と椅子との距離が既定値以下であれば、判定部250cは、その椅子が使用中であると判定し、その椅子に係わる座席も使用中であると判定する。生成された座席状態情報は、通信処理部600bを介して例えば外部システムなどに宛てて送出される。 The determination unit 600a determines whether each seat is vacant or in use based on the person detection information and the chair detection information, and generates seat state information. For example, if the distance between the person and the chair calculated from the position coordinates of the person indicated by the person detection information and the position coordinates of the chair indicated by the chair detection information is equal to or less than a predetermined value, the determination unit 250c determines that the chair is in use, and the seat associated with that chair is also in use. The generated seat state information is sent to, for example, an external system via communication processing section 600b.

図28は、第10の実施形態における情報伝達の一例を示す図である。図28において、判定部600aはクラウド400の機能として理解されることができる。図28において、ゲートウェイ200は、画像センサ3から送信された椅子検出情報および人検出情報を、センサIDとともにルータ300経由でサーバ600に伝送する。 FIG. 28 is a diagram showing an example of information transmission in the tenth embodiment. 28, the determination unit 600a can be understood as a function of the cloud 400. FIG. 28, the gateway 200 transmits the chair detection information and the person detection information transmitted from the image sensor 3 to the server 600 via the router 300 together with the sensor ID.

サーバ600の判定部400dは、人検出情報と椅子検出情報とに基づいて、座席ごとに空席または使用中のいずれかを判定し、座席状態情報を生成する。生成された座席状態情報は、センサIDとともに、例えば外部システム宛に送出される。 The determination unit 400d of the server 600 determines whether each seat is vacant or in use based on the person detection information and the chair detection information, and generates seat state information. The generated seat state information is sent to, for example, an external system together with the sensor ID.

以上説明したように第10の実施形態では、クラウド400のサーバ600に判定部600aを備え、画像センサからの椅子検出情報および人検出情報に基づいて、クラウド400において座席状態情報を生成するようにした。このようにしたので、第10の実施形態によっても、座席の状態を正確に把握できるようになる。加えて、画像センサ3、およびゲートウェイ200における処理負荷を軽減することができる。 As described above, in the tenth embodiment, the server 600 of the cloud 400 is provided with the determination unit 600a, and the seat state information is generated in the cloud 400 based on the chair detection information and the person detection information from the image sensor. did. Since this is done, it is possible to accurately grasp the state of the seat also according to the tenth embodiment. In addition, processing loads on the image sensor 3 and gateway 200 can be reduced.

[その他の実施形態]
なお、この発明は上記の実施形態に限られるものではなく、さらに多様な形態を取ることが可能である。
[Other embodiments]
It should be noted that the present invention is not limited to the above-described embodiments, and can take various forms.

図29は、センシングシステムの他の例を示す図である。図29において、通信装置700により、ゲートウェイ200がクラウド400と直接通信する機能を備え、クラウド400がゲートウェイ200経由で直接、各画像センサ3と通信可能な形態としてもよい。つまり、ゲートウェイ200に、広域ネットワーク接続用の通信機能を備えるようにしてもよい。 FIG. 29 is a diagram showing another example of the sensing system. In FIG. 29, the communication device 700 may provide a function for the gateway 200 to directly communicate with the cloud 400 so that the cloud 400 can directly communicate with each image sensor 3 via the gateway 200 . That is, the gateway 200 may be provided with a communication function for wide area network connection.

図30は、センシングシステムの他の例を示す図である。図30に示されるように、センサネットワーク101として、渡り配線でなくマルチドロップ型のトポロジを採用することも可能である。図30は、ゲートウェイ200が広域ネットワーク接続用の通信機能を備える形態を示すが、図31に示されるように、画像センサ3とクラウド400との間にビル内LANが配設される形態ももちろん可能である。 FIG. 30 is a diagram showing another example of the sensing system. As shown in FIG. 30, as the sensor network 101, it is also possible to employ a multi-drop type topology instead of transition wiring. FIG. 30 shows a form in which the gateway 200 has a communication function for wide area network connection, but as shown in FIG. It is possible.

このほか、図32に示されるように、複数の画像センサ3-1~3-nがビル内LANに直接、接続されていてもよい。さらには、図33に示されるように、画像センサ3に通信装置700を持たせ、画像センサ3に直接広域ネットワーク接続用の通信機能を具備してもよい。 Alternatively, as shown in FIG. 32, a plurality of image sensors 3-1 to 3-n may be directly connected to the intra-building LAN. Furthermore, as shown in FIG. 33, the image sensor 3 may be provided with a communication device 700, and the image sensor 3 may be provided with a communication function for direct wide area network connection.

本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While several embodiments of the invention have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

1…照明機器、2…空調機器、3…画像センサ、3-1~3-n…画像センサ、15…プロセッサ、30…レジスタ、30a…カメラ情報、31…撮像部、31a…魚眼レンズ、31b…絞り機構、31c…撮像素子、32…記憶部、32a…画像データ、32b…プログラム、32d…椅子位置情報、32e…辞書データ、33…プロセッサ、33a…人物検出部、33b…椅子検出部、33c…判定部、33d…検出部、33e…画像データ処理部、34…通信部、35…内部バス、100…センサネットワーク、101…センサネットワーク、200…ゲートウェイ、210…記憶部、210a…人検出情報、210b…椅子検出情報、220…ROM、230…RAM、250…プロセッサ、250a…人物検出部、250b…椅子検出部、250c…判定部、260…光学メディアドライブ、270…インタフェース部、270a…内部通信部、270b…外部通信部、300…ルータ、400…クラウド(クラウドコンピューティングシステム)、400a…画像処理部、400b…センサ管理部、400c…辞書生成部、400d…判定部、401…画像データベース、500…コントローラ、600…サーバ、600a…判定部、600b…通信処理部、700…通信装置。 Reference Signs List 1 Lighting equipment 2 Air conditioning equipment 3 Image sensor 3-1 to 3-n Image sensor 15 Processor 30 Register 30a Camera information 31 Imaging unit 31a Fisheye lens 31b Aperture mechanism 31c... Imaging device 32... Storage unit 32a... Image data 32b... Program 32d... Chair position information 32e... Dictionary data 33... Processor 33a... Person detection unit 33b... Chair detection unit 33c Determination unit 33d Detection unit 33e Image data processing unit 34 Communication unit 35 Internal bus 100 Sensor network 101 Sensor network 200 Gateway 210 Storage unit 210a Person detection information , 210b...Chair detection information, 220...ROM, 230...RAM, 250...Processor, 250a...Human detection unit, 250b...Chair detection unit, 250c...Judgment unit, 260...Optical media drive, 270...Interface unit, 270a...Inside Communication unit 270b External communication unit 300 Router 400 Cloud (cloud computing system) 400a Image processing unit 400b Sensor management unit 400c Dictionary generation unit 400d Determination unit 401 Image database , 500... Controller, 600... Server, 600a... Determination unit, 600b... Communication processing unit, 700... Communication device.

Claims (11)

撮像素子を有する画像センサを具備し、
前記画像センサは、
前記撮像素子で対象空間を撮像して得られた画像データから、前記対象空間における人の位置情報を示す人検出情報を生成し、前記画像データから、前記対象空間における椅子の位置情報を示す椅子検出情報を生成する、検出部と、
前記人検出情報と前記椅子検出情報とに基づいて座席の状態を判定し、当該座席の状態を示す座席状態情報を生成する判定部と
人検出用の辞書データと、前記椅子の形状情報を格納する椅子検出用の複数の辞書データとが記録された記憶部と、を具備し、
前記検出部は、前記人検出用の辞書データを用いて前記人検出情報を生成することと、前記椅子検出用の辞書データを用いて前記椅子検出情報を生成することとを交互に行い、前記椅子検出情報の生成に際し、前記椅子検出用の複数の辞書データを順次切り替えて用いる、座席状態センシングシステム。
Equipped with an image sensor having an imaging element,
The image sensor is
Human detection information indicating the position information of a person in the target space is generated from the image data obtained by imaging the target space with the imaging device, and the chair indicating the position information of the chair in the target space from the image data. a detector that generates detection information;
a determination unit that determines a seat state based on the person detection information and the chair detection information and generates seat state information indicating the state of the seat ;
a storage unit in which dictionary data for human detection and a plurality of dictionary data for chair detection storing shape information of the chair are recorded ;
The detecting unit alternately generates the human detection information using the dictionary data for human detection and generates the chair detection information using the dictionary data for chair detection. A seat state sensing system that sequentially switches and uses a plurality of dictionary data for chair detection when generating chair detection information .
撮像素子を有する画像センサと、この画像センサと通信可能なサーバとを具備し、
前記画像センサは、
前記撮像素子で対象空間を撮像して得られた画像データから、前記対象空間における人の位置情報を示す人検出情報を生成し、前記画像データから、前記対象空間における椅子の位置情報を示す椅子検出情報を生成する検出部と、
人検出用の辞書データと、前記椅子の形状情報を格納する椅子検出用の複数の辞書データとが記録された記憶部と、を備え、
前記検出部は、前記人検出用の辞書データを用いて前記人検出情報を生成することと、前記椅子検出用の辞書データを用いて前記椅子検出情報を生成することとを交互に行い、前記椅子検出情報の生成に際し、前記椅子検出用の複数の辞書データを順次切り替えて用い、
前記サーバは、
前記人検出情報と前記椅子検出情報とに基づいて座席の状態を判定し、当該座席の状態を示す座席状態情報を生成する判定部を具備する、座席状態センシングシステム。
Equipped with an image sensor having an imaging element and a server capable of communicating with the image sensor,
The image sensor is
Human detection information indicating the position information of a person in the target space is generated from the image data obtained by imaging the target space with the imaging device, and the chair indicating the position information of the chair in the target space from the image data. a detection unit that generates detection information;
a storage unit in which dictionary data for human detection and a plurality of dictionary data for chair detection storing shape information of the chair are recorded ;
The detecting unit alternately generates the human detection information using the dictionary data for human detection and generates the chair detection information using the dictionary data for chair detection. when generating chair detection information, sequentially switching and using a plurality of dictionary data for chair detection,
The server is
A seat state sensing system comprising a determination unit that determines a state of a seat based on the person detection information and the chair detection information and generates seat state information indicating the state of the seat.
撮像素子を有する画像センサと、この画像センサをネットワークに通信可能に接続するゲートウェイ装置とを具備し、
前記画像センサは、
前記撮像素子で対象空間を撮像して得られた画像データから、前記対象空間における人の位置情報を示す人検出情報を生成し、前記画像データから、前記対象空間における椅子の位置情報を示す椅子検出情報を生成する検出部と、
人検出用の辞書データと、前記椅子の形状情報を格納する椅子検出用の複数の辞書データとが記録された記憶部と、を備え、
前記検出部は、前記人検出用の辞書データを用いて前記人検出情報を生成することと、前記椅子検出用の辞書データを用いて前記椅子検出情報を生成することとを交互に行い、前記椅子検出情報の生成に際し、前記椅子検出用の複数の辞書データを順次切り替えて用い、
前記ゲートウェイ装置は、
前記人検出情報と前記椅子検出情報とに基づいて座席の状態を判定し、当該座席の状態を示す座席状態情報を生成する判定部を具備する、座席状態センシングシステム。
comprising an image sensor having an imaging element and a gateway device that communicably connects the image sensor to a network;
The image sensor is
Human detection information indicating the position information of a person in the target space is generated from the image data obtained by imaging the target space with the imaging device, and the chair indicating the position information of the chair in the target space from the image data. a detection unit that generates detection information;
a storage unit in which dictionary data for human detection and a plurality of dictionary data for chair detection storing shape information of the chair are recorded ;
The detecting unit alternately generates the human detection information using the dictionary data for human detection and generates the chair detection information using the dictionary data for chair detection. when generating chair detection information, sequentially switching and using a plurality of dictionary data for chair detection,
The gateway device
A seat state sensing system comprising a determination unit that determines a state of a seat based on the person detection information and the chair detection information and generates seat state information indicating the state of the seat.
前記判定部は、
前記人の位置情報を示す座標と前記椅子の位置情報を示す座標とから算出される距離が既定値以下であれば、当該椅子が使用中であると判定する、請求項1乃至3のいずれか1項に記載の座席状態センシングシステム。
The determination unit
4. The chair is determined to be in use if the distance calculated from the coordinates indicating the position information of the person and the coordinates indicating the position information of the chair is equal to or less than a predetermined value. 2. The seat state sensing system according to item 1.
前記判定部は、前記座席状態情報において、前記椅子が使用中であるか否かを使用中/空席の2つの状態で表す、請求項1乃至3のいずれか1項に記載の座席状態センシングシステム。 4. The seat state sensing system according to any one of claims 1 to 3, wherein in the seat state information, the determination unit indicates whether or not the chair is in use by two states, occupied/empty seat. . 前記判定部は、前記座席状態情報において、前記椅子が使用中である確度を連続的な数値で表す、請求項1乃至3のいずれか1項に記載の座席状態センシングシステム。 4. The seat state sensing system according to any one of claims 1 to 3, wherein, in the seat state information, the determination unit expresses the probability that the chair is in use by a continuous numerical value. 前記判定部は、前記座席状態情報において、前記椅子が使用中である確度を段階的なランクで表す、請求項1乃至3のいずれか1項に記載の座席状態センシングシステム。 4. The seat state sensing system according to any one of claims 1 to 3, wherein said determination unit expresses the degree of certainty that said chair is in use in said seat state information by graded ranks. 撮像素子を有する画像センサを具備するセンシングシステムに適用可能な座席状態判定方法であって、
前記画像センサが、前記撮像素子で対象空間を撮像して画像データを取得し、
前記画像センサが、前記画像データから、人検出用の辞書データを用いて前記対象空間における人の位置情報を示す人検出情報を生成することと、前記画像データから、椅子の形状情報を格納する椅子検出用の複数の辞書データのいずれかを用いて前記対象空間における前記椅子の位置情報を示す椅子検出情報を生成することとを交互に行い、前記椅子検出情報の生成に際し、前記椅子検出用の複数の辞書データを順次切り替えて用い、
前記画像センサが、前記人検出情報と前記椅子検出情報とに基づいて座席の状態を判定する、座席状態判定方法。
A seat state determination method applicable to a sensing system equipped with an image sensor having an imaging element,
the image sensor acquires image data by imaging the target space with the imaging device;
The image sensor generates human detection information indicating position information of a person in the target space from the image data using dictionary data for human detection, and stores shape information of a chair from the image data. generating chair detection information indicating the position information of the chair in the target space by using any one of a plurality of dictionary data for chair detection; and generating the chair detection information when generating the chair detection information. use multiple dictionary data for
A seat state determination method, wherein the image sensor determines the state of the seat based on the person detection information and the chair detection information.
撮像素子を有する画像センサと、この画像センサと通信可能なサーバとを具備するセンシングシステムに適用可能な座席状態判定方法であって、
前記画像センサが、前記撮像素子で対象空間を撮像して画像データを取得し、
前記画像センサが、前記画像データから、人検出用の辞書データを用いて前記対象空間における人の位置情報を示す人検出情報を生成することと、前記画像データから、椅子の形状情報を格納する椅子検出用の複数の辞書データのいずれかを用いて前記対象空間における前記椅子の位置情報を示す椅子検出情報を生成することとを交互に行い、前記椅子検出情報の生成に際し、前記椅子検出用の複数の辞書データを順次切り替えて用い、
前記サーバが、
前記人検出情報と前記椅子検出情報とに基づいて座席の状態を判定する、座席状態判定方法。
A seat state determination method applicable to a sensing system comprising an image sensor having an imaging element and a server capable of communicating with the image sensor,
the image sensor acquires image data by imaging the target space with the imaging device;
The image sensor generates human detection information indicating position information of a person in the target space from the image data using dictionary data for human detection, and stores shape information of a chair from the image data. generating chair detection information indicating the position information of the chair in the target space by using any one of a plurality of dictionary data for chair detection; and generating the chair detection information when generating the chair detection information. use multiple dictionary data for
the server
A seat state determination method, wherein a seat state is determined based on the person detection information and the chair detection information.
撮像素子を有する画像センサと、この画像センサをネットワークに通信可能に接続するゲートウェイ装置とを具備するセンシングシステムに適用可能な座席状態判定方法であって、
前記画像センサが、前記撮像素子で対象空間を撮像して画像データを取得し、
前記画像センサが、前記画像データから、人検出用の辞書データを用いて前記対象空間における人の位置情報を示す人検出情報を生成することと、前記画像データから、椅子の形状情報を格納する椅子検出用の複数の辞書データのいずれかを用いて前記対象空間における前記椅子の位置情報を示す椅子検出情報を生成することとを交互に行い、前記椅子検出情報の生成に際し、前記椅子検出用の複数の辞書データを順次切り替えて用い、
前記ゲートウェイ装置が、前記人検出情報と前記椅子検出情報とに基づいて座席の状態を判定する、座席状態判定方法。
A seat state determination method applicable to a sensing system comprising an image sensor having an imaging device and a gateway device communicably connecting the image sensor to a network,
the image sensor acquires image data by imaging the target space with the imaging device;
The image sensor generates human detection information indicating position information of a person in the target space from the image data using dictionary data for human detection, and stores shape information of a chair from the image data. generating chair detection information indicating the position information of the chair in the target space by using any one of a plurality of dictionary data for chair detection; and generating the chair detection information when generating the chair detection information. use multiple dictionary data for
A seat state determination method, wherein the gateway device determines a seat state based on the person detection information and the chair detection information.
対象空間を撮像して画像データを取得する撮像素子と、
前記画像データから、前記対象空間における人の位置情報を示す人検出情報を生成、前記画像データから、前記対象空間における椅子の位置情報を示す椅子検出情報を生成する、検出部と
前記人検出情報と前記椅子検出情報とに基づいて座席の状態を判定し、当該座席の状態を示す座席状態情報を生成する判定部と
人検出用の辞書データと、前記椅子の形状情報を格納する椅子検出用の複数の辞書データとが記録された記憶部と、を具備し、
前記検出部は、前記人検出用の辞書データを用いて前記人検出情報を生成することと、前記椅子検出用の辞書データを用いて前記椅子検出情報を生成することとを交互に行い、前記椅子検出情報の生成に際し、前記椅子検出用の複数の辞書データを順次切り替えて用いる、画像センサ。
an imaging device that captures an image of a target space and acquires image data;
a detection unit that generates person detection information indicating position information of a person in the target space from the image data, and generates chair detection information indicating position information of a chair in the target space from the image data;
a determination unit that determines a seat state based on the person detection information and the chair detection information and generates seat state information indicating the state of the seat ;
a storage unit in which dictionary data for human detection and a plurality of dictionary data for chair detection storing shape information of the chair are recorded ;
The detecting unit alternately generates the human detection information using the dictionary data for human detection and generates the chair detection information using the dictionary data for chair detection. An image sensor that sequentially switches and uses a plurality of dictionary data for chair detection when generating chair detection information .
JP2018156286A 2018-08-23 2018-08-23 SEAT CONDITION SENSING SYSTEM, SEAT CONDITION DETERMINATION METHOD, AND IMAGE SENSOR Active JP7145693B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018156286A JP7145693B2 (en) 2018-08-23 2018-08-23 SEAT CONDITION SENSING SYSTEM, SEAT CONDITION DETERMINATION METHOD, AND IMAGE SENSOR

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018156286A JP7145693B2 (en) 2018-08-23 2018-08-23 SEAT CONDITION SENSING SYSTEM, SEAT CONDITION DETERMINATION METHOD, AND IMAGE SENSOR

Publications (2)

Publication Number Publication Date
JP2020030653A JP2020030653A (en) 2020-02-27
JP7145693B2 true JP7145693B2 (en) 2022-10-03

Family

ID=69622583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018156286A Active JP7145693B2 (en) 2018-08-23 2018-08-23 SEAT CONDITION SENSING SYSTEM, SEAT CONDITION DETERMINATION METHOD, AND IMAGE SENSOR

Country Status (1)

Country Link
JP (1) JP7145693B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008454A (en) 2009-06-25 2011-01-13 Hitachi Ltd Information providing system
JP2013172388A (en) 2012-02-22 2013-09-02 Nikon Corp Display device and program
JP2018085001A (en) 2016-11-24 2018-05-31 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method, and program
WO2018116359A1 (en) 2016-12-19 2018-06-28 株式会社オプティム Computer system, shop information providing method, and program
JP2018125613A (en) 2017-01-30 2018-08-09 沖電気工業株式会社 Information processing system, information processing apparatus, and information processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008454A (en) 2009-06-25 2011-01-13 Hitachi Ltd Information providing system
JP2013172388A (en) 2012-02-22 2013-09-02 Nikon Corp Display device and program
JP2018085001A (en) 2016-11-24 2018-05-31 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method, and program
WO2018116359A1 (en) 2016-12-19 2018-06-28 株式会社オプティム Computer system, shop information providing method, and program
JP2018125613A (en) 2017-01-30 2018-08-09 沖電気工業株式会社 Information processing system, information processing apparatus, and information processing method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Mengyi Wu et al.,"Statistics on the Number of People in the Regular Scene Based on Hough and SVM",2016 2nd IEEE International Conference on Computer and Communications (ICCC),米国,IEEE,2016年10月14日,pp.380-384
藤田 真一、外2名,"画像処理を用いた計算機室の監視システム",SSII2012 第18回画像センシングシンポジウム 講演論文集,日本,画像センシング技術研究会,2012年06月06日,pp.1-7

Also Published As

Publication number Publication date
JP2020030653A (en) 2020-02-27

Similar Documents

Publication Publication Date Title
CN101895727B (en) Monitoring system, image capturing apparatus, analysis apparatus, and monitoring method
US9295141B2 (en) Identification device, method and computer program product
US20090115597A1 (en) Energy saving and security system
EP3553739B1 (en) Image recognition system and image recognition method
CN103189687A (en) Energy management system
CN108875823B (en) Evidence combination method based on evidence measurement standard
JP7094814B2 (en) Detection system and detection method
JP2015103104A (en) Information processing apparatus, information processing method, and information processing system
CN108292357A (en) Image processing system
JP2023076454A (en) Sensing system, maintenance terminal device, data distribution method, and image sensor
TW202113742A (en) Iot contextually-aware digital twin with enhanced discovery
JP7145693B2 (en) SEAT CONDITION SENSING SYSTEM, SEAT CONDITION DETERMINATION METHOD, AND IMAGE SENSOR
JP2019087787A (en) Image sensor, sensing method, control system, and program
JP6495691B2 (en) Moving object detection device, moving object detection method, and computer program
JP6696687B2 (en) Lighting control system, lighting control method, lighting control device, and computer program
JP7353964B2 (en) Guidance system, server, program and service provision method
JP7419095B2 (en) Image sensors, computing devices, and image sensor systems
JP7254570B2 (en) Image sensor system, computing device, sensing method, and program
JP6524201B2 (en) Building equipment control system and image sensor device
JP2023542620A (en) Systems and methods for detecting and tracking individuals showing symptoms of infection
JP2021103420A (en) Guiding system, server, program, and service providing method
JP7183232B2 (en) Physical condition evaluation system, server, program and method of providing physical condition evaluation service
JP5521560B2 (en) Context information communication system, context information processing apparatus, program, and method
JP6658402B2 (en) Frame rate determination device, frame rate determination method, and computer program for frame rate determination
JP7237499B2 (en) Image sensor, sensing method, control system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220920

R150 Certificate of patent or registration of utility model

Ref document number: 7145693

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150