JP7145693B2 - SEAT CONDITION SENSING SYSTEM, SEAT CONDITION DETERMINATION METHOD, AND IMAGE SENSOR - Google Patents
SEAT CONDITION SENSING SYSTEM, SEAT CONDITION DETERMINATION METHOD, AND IMAGE SENSOR Download PDFInfo
- Publication number
- JP7145693B2 JP7145693B2 JP2018156286A JP2018156286A JP7145693B2 JP 7145693 B2 JP7145693 B2 JP 7145693B2 JP 2018156286 A JP2018156286 A JP 2018156286A JP 2018156286 A JP2018156286 A JP 2018156286A JP 7145693 B2 JP7145693 B2 JP 7145693B2
- Authority
- JP
- Japan
- Prior art keywords
- chair
- detection
- information
- detection information
- image sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Arrangements For Transmission Of Measured Signals (AREA)
Description
本発明の実施形態は、座席(椅子またはテーブル、あるいはその双方)の状態をセンシングするシステム、方法、および画像センサに関する。 Embodiments of the present invention relate to systems, methods, and image sensors for sensing the state of a seat (chair and/or table).
近年、フリーアドレスのオフィスや商業施設(フードコート等)において、ユーザに空席を案内するサービスが検討されている。例えば、人流解析技術や、既存の画像解析技術によれば、人の位置を計測することができる。しかしながら座席が使用されているか、いないかを判定するには、人だけでなく椅子の位置も取得しなくてはならず、そのような技術は知られていない。まして、椅子やテーブルは移動することもあるので、そのような場合には座席の状態(例えば、使用中/空席)を正しく把握することができない。 2. Description of the Related Art In recent years, services for guiding users to available seats in free-address offices and commercial facilities (such as food courts) have been considered. For example, people's positions can be measured by means of people flow analysis technology or existing image analysis technology. However, in order to determine whether a seat is in use or not, not only the position of the person but also the position of the chair must be acquired, and such technology is not known. Furthermore, since the chairs and tables may move, in such a case, it is not possible to correctly grasp the state of the seat (for example, seat in use/empty).
座席の状態を把握するには、人の位置情報だけでなく、椅子の位置情報を正確に取得し、そのうえで、これらの情報を適切に処理する必要がある。 In order to grasp the state of the seat, it is necessary to obtain not only the positional information of the person but also the positional information of the chair accurately, and then process this information appropriately.
そこで、目的は、座席の状態を正確に把握できるようにした座席状態センシングシステム、座席状態判定方法、および画像センサを提供することにある。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a seat state sensing system, a seat state determination method, and an image sensor capable of accurately grasping the state of a seat.
実施形態によれば、座席状態センシングシステムは、撮像素子を有する画像センサを具備する。前記画像センサは、前記撮像素子で対象空間を撮像して得られた画像データから、前記対象空間における人の位置情報を示す人検出情報を生成し、前記画像データから、前記対象空間における椅子の位置情報を示す椅子検出情報を生成する、検出部と、前記人検出情報と前記椅子検出情報とに基づいて座席の状態を判定し、当該座席の状態を示す座席状態情報を生成する判定部と、人検出用の辞書データと、前記椅子の形状情報を格納する椅子検出用の複数の辞書データとが記録された記憶部と、を具備し、前記検出部は、前記人検出用の辞書データを用いて前記人検出情報を生成することと、前記椅子検出用の辞書データを用いて前記椅子検出情報を生成することとを交互に行い、前記椅子検出情報の生成に際し、前記椅子検出用の複数の辞書データを順次切り替えて用いる。 According to embodiments, a seat condition sensing system comprises an image sensor having an imaging element. The image sensor generates human detection information indicating position information of a person in the target space from image data obtained by imaging the target space with the imaging element, and detects the position of the chair in the target space from the image data. a detection unit that generates chair detection information indicating position information; a determination unit that determines a seat state based on the person detection information and the chair detection information and generates seat state information that indicates the state of the seat; and a storage section storing dictionary data for human detection and a plurality of dictionary data for chair detection storing shape information of the chair, wherein the detection section stores the dictionary data for human detection. and generating the chair detection information using the dictionary data for chair detection are alternately performed. A plurality of dictionary data are sequentially switched and used .
以下に、図面を参照して、この発明の実施の形態について説明する。
図1は、室内空間の一例を示す図である。図1に示されるように、オフィスビルにおける各フロアの例えば天井に、照明機器1、空調機器2の吹き出し口、および画像センサ3が配設される。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram showing an example of an indoor space. As shown in FIG. 1, a
図2は、実施形態に係わるセンシングシステムの一例を示す図である。図2において、オフィスビル内に形成されるLAN(Local Area Network)に、ゲートウェイ(GW)200、ルータ300、およびコントローラ500が接続される。このうちコントローラ500は、上位のBEMS(Building Energy Management System)サーバ(図示せず)等からの指示に基づき、ビル内の空調機器や照明機器等を制御する。
FIG. 2 is a diagram illustrating an example of a sensing system according to the embodiment; In FIG. 2, a gateway (GW) 200, a
ルータ300は、インターネットなどの公衆通信回線や専用線などを経由して、ビル内LANとクラウドコンピューティングシステム(クラウド)400とを通信可能に接続する。これによりセンシングシステムは、各種のデータをクラウド400と授受することができる。LAN上の通信プロトコルとしては、例えば、インテリジェントビル用ネットワークの通信規格であるBACnet(登録商標)やLONWORKS(登録商標)、KNX(登録商標)、DALI、ZigBee(登録商標)、ECHONET Lite(登録商標)を適用することができる。
The
ゲートウェイ200は、複数の画像センサ3(3-1~3-n)を自らの配下に収容する。画像センサ3-1~3-nは、センサネットワーク100経由でゲートウェイ200に接続される。センサネットワーク100は、例えばEtherCAT(登録商標)であり、渡り配線によるループ構造を有する回線で、画像センサ3-1~3-nおよびゲートウェイ200を互いに通信可能に接続する。BEMSサーバやコントローラ500、ルータ300も、ゲートウェイ200経由で画像センサ3-1~3-nと相互通信することが可能である。
The
画像センサ3は、対象空間を撮影して画像データを取得する。画像センサ3は、取得した画像データを処理し、環境情報および人物情報などのセンシング情報を作成する。環境情報は、制御対象の空間(対象空間)の環境に関する情報であり、例えば、対象空間における照度の分布が挙げられる。人物情報は、対象空間における人間に関する情報であり、例えば、人の存在または不在(在/不在)、滞在時間、人数、人の行動、人の活動量、および、人の着衣に関する着衣情報などを挙げることができる。センシング情報は、ゲートウェイ200経由で、コントローラ500やクラウド400上のサーバ等に伝送される。次に、上記構成を基礎として複数の実施形態を説明する。
The
[第1の実施形態]
図3は、画像センサ3の一例を示すブロック図である。画像センサ3は、撮像部31、記憶部32、プロセッサ33、および通信部34を備える。これらは内部バス35を介して互いに接続される。
[First Embodiment]
FIG. 3 is a block diagram showing an example of the
撮像部31は、魚眼レンズ31a、絞り機構31b、撮像素子31cおよびレジスタ30を備える。魚眼レンズ31aは、対象空間としての室内を、例えば天井から見下ろす形で視野に捕えて撮像素子31cに結像する。撮像素子31cは、CMOS(相補型金属酸化膜半導体)に代表されるイメージセンサであり、例えば毎秒30フレームのフレームレートの映像信号を生成する。この映像信号はディジタル符号化され、画像データとして出力される。撮像素子31cへの入射光量は絞り機構31bにより調節される。
The
レジスタ30は、カメラ情報30aを記憶する。カメラ情報30aは、例えばオートゲインコントロール機能の状態、ゲインの値、露光時間などの、撮像部31に関する情報、あるいは画像センサ3それ自体に関する情報である。
The
記憶部32は、DRAM(Dynamic Random Access Memory)、SDRAM(Synchronous Dynamic RAM)、EPROM(Erasable Programmable ROM)などの半導体メモリであり、撮像部31により取得された画像データ32a、実施形態に係わる各種の機能をプロセッサ33に実行させるためのプログラム32b、画像センサを一意に区別するためのセンサID(IDentification)32cなどを記憶する。
The
プロセッサ33は、記憶部32に記憶されたプログラムをロードし、実行することで、実施形態において説明する各種の機能を実現する。プロセッサ33は、例えばマルチコアCPU(Central Processing Unit)を備え、画像処理を高速で実行することについてチューニングされたLSI(Large Scale Integration)である。FPGA(Field Programmable Gate Array)等でプロセッサ15を構成することもできる。MPU(Micro Processing Unit)もプロセッサの一つである。
通信部34は、センサネットワーク100に接続可能で、通信相手先(コントローラ500等)とのデータの授受を仲介する。
The
The
ところで、プロセッサ33は、実施形態に係る処理機能として、人物検出部33a、椅子検出部33b、および判定部33cを備える。人物検出部33a、椅子検出部33b、および判定部33cは、例えば、プロセッサ33のレジスタにロードされたプログラム32bに従い、プロセッサ33が演算処理を実行する過程で生成される、プロセスである。
By the way, the
人物検出部33aは、記憶部32に蓄積された画像データ32aを所定のアルゴリズムで解析して視野内の人物(人)を検出し、人物の位置情報を示す人検出情報を生成する。椅子検出部33bは、画像データ32aを所定のアルゴリズムで解析して視野内の椅子を検出し、椅子の位置情報を示す椅子検出情報を生成する。位置情報は、対象空間における絶対座標系の位置座標であっても良いし、画像センサ3-1~3-nごとに設定された座標系における位置座標であっても良い。
The
画像データ32aを解析することで、例えば、輝度勾配方向ヒストグラム(histograms of oriented gradients:HOG)特徴量、コントラスト、解像度、S/N比、および色調などの特徴量を計算することができる。また、輝度勾配方向共起ヒストグラム(Co-occurrence HOG:Co-HOG)特徴量、Haar-Like特徴量なども知られている。このような特徴量に基づいて、視野内の対象(オブジェクト)を識別することが可能である。あるいは、検出対象(人、または椅子)の形状情報を格納する辞書データを用いたパターン認識等の手法によっても、視野内の対象を識別することが可能である。
By analyzing the
判定部33cは、人検出情報と椅子検出情報とに基づいて、座席ごとに空席または使用中のいずれかを判定し、座席状態情報を生成する。例えば、人検出情報に示される人の位置座標と、椅子検出情報に示される椅子の位置座標とから算出される人と椅子との距離が既定値以下であれば、判定部33cは、その椅子が使用中であると判定し、その椅子に係わる座席も使用中であると判定する。
Based on the person detection information and the chair detection information, the
図4は、図3に示される機能ブロック間での情報の流れの一例を示す図である。撮像部31で取得された画像データは人物検出部33a、椅子検出部33bに渡される。人物検出部33aは、画像データを解析して人検出情報を生成し、この人検出情報を判定部33cおよび通信部34に渡す。人検出情報は、図5に示されるように、例えば人検出ID(IDentification)に、検出位置を対応付けて生成される情報である。人検出IDは、画像データ内に人として検出された対象の識別子であり、概ね、個別の人物に対応付けられる。検出位置は、人検出IDを付与された対象の検出位置座標を示すもので、例えば検出元の画像センサでのXY座標系における数値で表される。
FIG. 4 is a diagram showing an example of information flow between the functional blocks shown in FIG. The image data acquired by the
椅子検出部33bは、画像データを解析して椅子検出情報を生成し、この椅子検出情報を判定部33cに渡す。
椅子検出情報は、図6に示されるように、例えば、椅子検出IDに検出位置を対応付けて生成される情報である。椅子検出IDは、画像データ内に椅子として検出された対象の識別子である。検出位置は、椅子検出IDを付与された対象の検出位置座標を示すもので、例えば検出元の画像センサでのXY座標系における数値で表される。
The
The chair detection information is, for example, information generated by associating a detection position with a chair detection ID, as shown in FIG. A chair detection ID is an identifier of an object detected as a chair in the image data. The detected position indicates the detected position coordinates of the object assigned the chair detection ID, and is represented by, for example, numerical values in the XY coordinate system of the image sensor that is the detection source.
なお、椅子検出IDに、検出された椅子の型、種別、タイプ、特徴などを示す情報(検出タイプ)を対応付けてもよい。図6においては3種類の椅子が検出されたことが示され、それぞれ数値1,2,3で区別されている。
The chair detection ID may be associated with information (detection type) indicating the shape, classification, type, characteristics, and the like of the detected chair. FIG. 6 shows that three types of chairs have been detected, distinguished by
人検出情報と椅子検出情報とを取得した判定部33cは、人の位置座標と、椅子の位置座標とに基づいて、三平方の定理等を用いて人と椅子との距離を算出する。そして、算出された距離が既定の閾値以下であれば、判定部33cは、椅子の近くの人にその椅子が使用されていると判定し、そうでなければ、その椅子は空席と判定する。判定部33cは、椅子(座席)ごとに使用中/空席の判定を行い、その結果に基づいて、座席の状態を示す座席状態情報を生成する。生成された座席状態情報は通信部34に渡される。
The
図7は、座席状態情報の一例を示す図である。座席状態情報は、座席を区別するための座席IDに、その位置座標、および、椅子が使用中か空席かを示す情報を対応付けた情報である。なお、座席状態情報に、椅子の検出タイプを含めてもよい。 FIG. 7 is a diagram showing an example of seat state information. The seat state information is information in which a seat ID for distinguishing a seat is associated with its position coordinates and information indicating whether the chair is in use or vacant. The seat state information may include the detection type of the chair.
椅子の状態は、使用中か、空席かの2つの状態(True/False、または0/1など)で区別されるのに限らない。例えば、椅子が使用中である確度を連続的な数値(例えば0~1)で表すようにしても良い。または、椅子が使用中である確率を0%~100%の間の値で表してもよい。あるいは、椅子が使用中である確度を段階的なランク(整数の値)で表すようにしてもよい。
座席状態情報と人検出情報とを渡された通信部34(図4)は、これらの情報を、例えば隣接する画像センサに、自らのセンサIDとともに送信する。
The state of the chair is not limited to being distinguished by two states (True/False, 0/1, etc.) of being in use and being vacant. For example, the probability that the chair is in use may be represented by a continuous numerical value (eg, 0 to 1). Alternatively, the probability that the chair is in use may be represented by a value between 0% and 100%. Alternatively, the probability that the chair is in use may be represented by graded ranks (integer values).
The communication unit 34 (FIG. 4), which receives the seat state information and the human detection information, transmits these information to, for example, an adjacent image sensor together with its own sensor ID.
図8は、第1の実施形態における情報伝達の一例を示す図である。各画像センサ3は、逐次、座席状態情報(および人検出情報)を生成出力し、これらの情報は例えばバケツリレー方式で順次、隣り合う画像センサを経由してゲートウェイ200に伝送される。ゲートウェイ200はセンサID付きの座席状態情報、および人検出情報を、LAN経由でコントローラ500、および/またはルータ300に送信する。
FIG. 8 is a diagram showing an example of information transmission in the first embodiment. Each
以上説明したように第1の実施形態では、画像センサ3で取得された画像データを画像処理して、人の位置座標と、椅子の位置座標とを検出し、それぞれの位置座標に基づいて人と椅子との間の距離を算出する。そして、画像センサ3に判定部33cを備え、人と椅子との距離が規定値以下であれば、椅子は使用中であると判定するようにした。このようにしたので、椅子及び座席が使用中か、空席かを、客観的な指標に基づいて、エッジデバイス側で判定することができる。
As described above, in the first embodiment, the image data acquired by the
既存の技術で、人の位置と椅子の位置との対応付けに言及したものはなく、まして、椅子が使用中か空席であるかを判定する技術は知られていない。椅子の位置をある程度固定された値として扱い、位置情報から座席の状況を推定することはできるが、そもそも椅子は移動するので、その場合は座席の状況を正しく把握することができなかった。 None of the existing techniques refer to the correspondence between the position of a person and the position of a chair, much less the technique of determining whether a chair is in use or vacant. It is possible to treat the position of the chair as a fixed value to some extent and estimate the seat situation from the position information.
また、既存のセンサ技術では数メートル範囲の検出エリアに人が1人以上存在するか/不在かを検出できるのみで、詳細な位置情報を取得することはできない。複数の人を識別することができない。座席に人が座って使用しているか否を計測することも、特に店舗やオフィスなどの広範囲のエリアに適用することは難しい。 In addition, existing sensor technology can only detect the presence/absence of one or more people in a detection area of several meters, and cannot acquire detailed position information. Inability to identify multiple persons. It is also difficult to measure whether a person is sitting on a seat and using it, especially in a wide area such as a store or office.
これに対し、第1の実施形態では、画像センサからの画像データを処理して椅子を検出し、その位置座標を取得し、人の位置情報と併せて座席の状況(椅子が使用されている/椅子が使用されていない)を判定する。従って、椅子が移動しても正しく状態を把握できるようになる。さらに初期導入時に、椅子の位置を人手で入力せず自動化することができる。これらのことから第1の実施形態によれば、座席の状態を正確に把握できるようにした座席状態センシングシステム、座席状態判定方法、および画像センサを提供することが可能となる。 On the other hand, in the first embodiment, the image data from the image sensor is processed to detect a chair, its position coordinates are acquired, and together with the position information of the person, the situation of the seat (i.e., whether the chair is being used / chair not in use). Therefore, even if the chair moves, the state can be correctly grasped. Furthermore, at the time of initial introduction, the position of the chair can be automated without manual input. For these reasons, according to the first embodiment, it is possible to provide a seat state sensing system, a seat state determination method, and an image sensor that enable an accurate grasp of the seat state.
[第2の実施形態]
第1の実施形態では、椅子の位置が変化することを想定し、画像センサにより椅子の位置情報を取得した。第2の実施形態では、例えばレストランや喫茶店のソファー等のように、椅子が固定されていることを想定する。
[Second embodiment]
In the first embodiment, assuming that the position of the chair changes, the image sensor acquires the position information of the chair. In the second embodiment, it is assumed that the chair is fixed, such as a sofa in a restaurant or coffee shop.
図9は、画像センサ3の他の例を示すブロック図である。第2の実施形態において、画像センサ3は、記憶部32に椅子位置情報32dを記憶する。椅子位置情報32dは、それぞれの椅子にその位置座標を対応付けて記録したデータベースである。
FIG. 9 is a block diagram showing another example of the
図10は、図9に示される機能ブロック間での情報の流れの一例を示す図である。撮像部31で取得された画像データは人物検出部33aに渡される。人物検出部33aは、画像データを解析して人検出情報を生成し、この人検出情報を判定部33cおよび通信部34に渡す。
FIG. 10 is a diagram showing an example of information flow between functional blocks shown in FIG. The image data acquired by the
人検出情報を取得した判定部33cは、さらに椅子位置情報32dを記憶部32から読み出し、人の位置座標と椅子の位置座標とに基づいて、人と椅子との距離を算出する。算出された距離が閾値以下であれば、判定部33cはその椅子が使用されていると判定し、そうでなければ、その椅子は空席と判定する。判定の結果に基づいて生成された座席状態情報は通信部34に渡され、人検出情報、センサIDとともに通信相手先に伝送される。
The
第2の実施形態では、固定された椅子を前提として、椅子の位置情報を予め画像センサ3に設定するようにした。そして、画像センサにより人の位置情報を取得し、椅子の位置情報を利用して人と椅子の位置関係を求め、個々の椅子が使用中か、空席かを判定するようにした。従って、第2の実施形態によっても、座席の状態を正確に把握できるようになる。
In the second embodiment, assuming that the chair is fixed, the position information of the chair is set in the
[第3の実施形態]
図11は、画像センサ3の他の例を示すブロック図である。第3の実施形態において、画像センサ3は、図3の構成に加えて、さらに、記憶部32に椅子位置情報32dを記憶する。
[Third Embodiment]
FIG. 11 is a block diagram showing another example of the
図12は、図11に示される機能ブロック間での情報の流れの一例を示す図である。第3の実施形態においては、判定部33cは、人検出情報と椅子検出情報とに加えて、椅子位置情報を取得する。そして、これら3種類の情報に基づいて、判定部33cは、椅子の使用状態を判定する。
このようにしたので、第3の実施形態によっても、座席の状態を正確に把握できるようになる。加えて、判定の精度を向上させることができる。
FIG. 12 is a diagram showing an example of information flow between functional blocks shown in FIG. In the third embodiment, the
With this configuration, it is possible to accurately grasp the state of the seat also according to the third embodiment. In addition, accuracy of determination can be improved.
[第4の実施形態]
図13は、画像センサ3の他の例を示すブロック図である。第4の実施形態において、画像センサ3は、記憶部32に辞書データ32eを記憶する。
[Fourth embodiment]
FIG. 13 is a block diagram showing another example of the
辞書データ32eは、画像センサ3における検出項目(人、物、男性、女性など)に応じて用意される、いわばテンプレートデータに類するデータである。画像センサ3で取得された画像データに対し、例えば『椅子』の検出向けに用意された、椅子の形状情報を有する辞書データ32eを用いてテンプレートマッチング処理を行うことで、画像データから椅子が検出される。その精度や椅子のタイプ(オフィスチェア、ソファー、座椅子など)や色を区別可能とするために、多様な辞書データ32eが予め用意される。このほか、車椅子、ベビーカー、子供、カート、白杖利用者、徘徊老人、不審人物、迷子、逃げ遅れた人物、等を検出するための辞書データを作成することができる。作成方法の一例としては、例えばサポートベクトルマシンやボルツマンマシンなどの、機械学習(Machine-Learning)の枠組みを利用することができる。
The
図14は、図13に示される機能ブロック間での情報の流れの一例を示す図である。椅子には様々な型/形状があり、それぞれに辞書が必要となる。しかし、現存する全ての椅子の型/形状の情報含む辞書を作成しようにも、データのサイズがあまりにも大きくなり、記憶領域や演算処理能力に限りのある組み込み用途(画像センサなど)では取り扱うことが難しい。 14 is a diagram showing an example of information flow between the functional blocks shown in FIG. 13. FIG. There are various types/shapes of chairs, each of which requires a dictionary. However, even if we try to create a dictionary containing information on all existing chair types/shapes, the size of the data would be too large to handle for embedded applications (such as image sensors) with limited memory space and processing power. is difficult.
そこで、第4の実施形態では、椅子の型ごとの辞書データ(辞書:椅子1~辞書:椅子n)を作成し、画像センサ3に予め記憶させる。そして、各椅子の辞書データを順次切り替えて椅子検出処理を実施する。画像センサ3が設置される対象空間に存在する椅子の種類はある程度限られており、オフィス空間などでは特にその傾向が強い。そこで、存在するであろう椅子の型を予め想定し、複数の辞書を切り替えて使用することで、柔軟に、かつ、椅子を高精度で検出することが可能となる。
Therefore, in the fourth embodiment, dictionary data for each chair type (dictionary:
図14に示されるように、例えば椅子に関するn個の辞書データを画像センサ3の記憶部32に格納する。椅子検出部33bは、辞書データを順番に切り替えつ画像データを処理し、椅子を検出する。椅子が検出された際にどの辞書を用いたかを示す情報を付与することで、どの型の椅子が検出されたのかを区別することもできる。このようにしたので、第4の実施形態によっても、座席の状態を正確に把握できるようになる。加えて、判定の精度を向上させることができる。
As shown in FIG. 14, for example, n dictionary data relating to chairs are stored in the
[第5の実施形態]
図15は、画像センサ3の他の例を示すブロック図である。第5の実施形態において、画像センサ3は、プロセッサ33に検出部33dを備え、記憶部32に辞書データ32eを記憶する。検出部33dは、予め用意された辞書データに基づいて対象空間における対象を検出する機能を備え、辞書データを切り替えることで様々な対象を検出することができる。つまり第5の実施形態では、共通の検出部により、人物および椅子の双方を検出する。図16に示されるように、椅子検出については(辞書:椅子1~辞書:椅子n)のn通りの辞書を用い、人検出については人検出用の辞書(辞書:人)が用いられる。そして、(辞書:椅子1~辞書:椅子n)のいずれかを用いて検出された対象は椅子として認識され、椅子検出情報が生成される。一方、(辞書:人)を用いて検出された対象は人として認識され、人検出情報が生成される。
[Fifth Embodiment]
FIG. 15 is a block diagram showing another example of the
ところで、椅子とは違って人は自発的に動くことから、人の動きを的確に把握するためには、検出の周期を椅子よりも短くする必要がある。しかし、多数の型の椅子の検出処理に人の検出を組み入れると、人の検出に係る処理時間が長くなってしまう。 By the way, unlike a chair, a person moves voluntarily. Therefore, in order to accurately grasp the movement of a person, it is necessary to make the detection cycle shorter than that of the chair. However, if human detection is included in the detection process for many types of chairs, the processing time for human detection becomes long.
つまり、画像センサで椅子の検出処理も行うと、画像処理の処理量が増えるため、画像センサの計算リソースを超えてしまい、センシングの間隔が延びてレスポンスが悪化することが考えられる。これは検出精度の低下などをもたらすので、対処を要する。 In other words, if the image sensor also performs chair detection processing, the processing amount of the image processing increases, which may exceed the computational resources of the image sensor, extending the sensing interval and degrading the response. Since this causes a decrease in detection accuracy and the like, countermeasures are required.
逆に、椅子が自発的に動くことはなく、椅子が移動した場合には人の介在があると見做せることから、人検出に対して椅子の検出周期を長くとったとしても検出精度の低下は許容される程度に小さい。検出対象のこのような特性に基づいて、第5の実施形態では、人検出の周期と、椅子検出の周期とを最適化する。 Conversely, the chair does not move spontaneously, and when the chair moves, it can be assumed that there is human intervention. The drop is acceptably small. Based on such characteristics of the detection target, the fifth embodiment optimizes the period of human detection and the period of chair detection.
図17は、第5の実施形態でのプロセッサ33の処理手順の一例を示すフローチャートである。プロセッサ33は、先ず、(人)の辞書データを用いて対象を検出する(ステップS1)。次に、辞書データを(椅子1)に切り替えて対象を検出し(ステップS2)、次に、再度、(人)の辞書データを用いて対象を検出する(ステップS3)。次のステップS4では(椅子2)の辞書データが使用され、次のステップでは再び(人)の辞書データが用いられる。ステップS5で(人)の辞書データが用いられた後(椅子n)の辞書データを用いた検出が終わると、処理手順は再びステップS1に戻って繰り替えされる。
FIG. 17 is a flow chart showing an example of the processing procedure of the
このように、複数の型の椅子データ(1~n)が順次切り替えられるたびに、人の辞書データを用いた検出処理が繰り返し実行される。つまり人と椅子を交互に検出し、かつ、椅子の検出処理は切り替えごとに1種類(1つの辞書)とすることで、人の検出処理と多種の椅子の検出処理とを、精度を犠牲にすることなく両立することができる。 In this way, the detection process using the person's dictionary data is repeatedly executed each time the plural types of chair data (1 to n) are sequentially switched. In other words, people and chairs are detected alternately, and the chair detection process is set to one type (one dictionary) for each switching, so that the human detection process and the detection process for various chairs can be performed at the expense of accuracy. can be compatible without
以上説明したように第5の実施形態では、検出部33dで辞書データを切り替えることで、人と椅子とを検出する。人の検出には例えば1種類の辞書データを用い、椅子の検出にはn通りの辞書データを用いる。そして、動かないと見做せる椅子の検出の頻度を低くし、動く人の検出の頻度を高くする。ただし椅子の検出に際しては、使用する辞書データを順次切り替えるようにした。このようにすることで、人の検出と、複数の型の椅子の検出とにバランスよく処理リソースを配分することができる。もちろん、時間の経過に伴う辞書データの切り替えの手法は図17の例に限られるものではない。
As described above, in the fifth embodiment, the
このようにしたので、第5の実施形態によっても、座席の状態を正確に把握できるようになる。また、人の検出と、多種の椅子の検出とを精度の劣化なく両立することができる。 Since this is done, it is possible to accurately grasp the state of the seat also according to the fifth embodiment. Moreover, it is possible to achieve both detection of a person and detection of various types of chairs without deterioration in accuracy.
[第6の実施形態]
図18は、画像センサ3の他の例を示すブロック図である。第6の実施形態において、画像センサ3のプロセッサ33は、その処理機能として画像データ処理部33eを備える。画像データ処理部33eは、図19に示されるように、撮像部31からの画像データにデータ圧縮、コンテナ処理などの処理を施し、ネットワーク伝送に適した形態の伝送データを生成して通信部34に渡す。通信部34は、画像データを含む伝送データを人検出情報、椅子検出情報、センサIDとともにゲートウェイ200経由でクラウド400向けに送出する。ゲートウェイ200およびルータ300は、各画像センサ3から送出されたデータをクラウド400に向け中継する。
[Sixth Embodiment]
FIG. 18 is a block diagram showing another example of the
図20は、第6の実施形態における情報伝達の一例を示す図である。クラウド400は、例えばデータセンタ、あるいは分散配置されたサーバ装置群などに実装される処理機能として、画像処理部400a、センサ管理部400b、辞書生成部400c、および、画像データベース401を備える。
FIG. 20 is a diagram showing an example of information transmission in the sixth embodiment. The
画像処理部400aは、複数の画像センサ3-1~3-nから収集した画像データを処理して、各画像データの特徴量の抽出などを行う。
センサ管理部400bは、複数の画像センサ3-1~3-nを個別に管理し、指示メッセージ(電文)の宛先を指定するなどの機能を有する。
The
The
辞書生成部400cは、画像処理部400aから渡される画像データの特徴量などに基づいて、検出対象(人、椅子など)に係わる辞書データを生成する。
The
画像データベース401は、画像センサ3-1~3-nから収集された画像データを蓄積する。
The
辞書データの作成には、椅子の型ごとに多方向からの撮影画像データが必要となる。また、辞書データの作成には多くの計算機リソースが必要となることから、画像センサ3およびゲートウェイ200の処理機能では限界がある。そこで第6の実施形態では、画像データをクラウド400へアップロードし、クラウド400側でデータ処理を行って辞書データを作成し、画像センサ3へ配布するようにした。
To create dictionary data, image data taken from multiple directions is required for each type of chair. In addition, the processing functions of the
図20において、例えば以下の手順により辞書データが生成される。
(1) 新たな椅子の辞書データを作成するため、クラウド400のセンサ管理部400bは、ゲートウェイ200を介して、画像センサ3に画像取得要求を送る。
(2) 要求を受けた画像センサ3は、画像データを伝送データに格納し、ゲートウェイ200、ルータ300経由でクラウド400に向け送信する。
(3) クラウド400は、画像センサ3からの画像データを受信し、画像データベース401に蓄積する。また、クラウド400の画像処理部400aは、集積した画像データから、辞書作成対象の椅子の領域の画像を切り出す。
(4) 辞書生成部400cは、切り出された領域の画像データを処理し、椅子Aについての辞書データ(例えばCoHOGをパラメータとする辞書データ)を生成する。
(5) 画像センサ3-1~3-nは、生成された新しい辞書データの取得要求をゲートウェイ200へ送る。
(6) ゲートウェイ200は、新たな辞書データをクラウド400から取得する。
(7) ゲートウェイ200は、新たな辞書データを全ての画像センサ3、または指定された画像センサ3宛に送信する。
(8) 新たな辞書データを取得した画像センサ3は、記憶部32に記憶された辞書データを新たな辞書データに更新し、記憶する。
In FIG. 20, dictionary data is generated by, for example, the following procedure.
(1) In order to create new chair dictionary data, the
(2) Upon receiving the request, the
(3)
(4) The
(5) The image sensors 3-1 to 3-n send requests to the
(6)
(7)
(8) The
以上説明したように第6の実施形態では、クラウド400に画像データをアップロードし、クラウド400側で辞書データを生成し、生成した辞書データを画像センサ3にダウンロードするようにした。このようにしたので、多様かつ、新しく登場する椅子を検出するための辞書データを作成することができる。しかもクラウド400のリソースを利用しているので、エッジ側のデバイスに過度の負担がかかることもない。
As described above, in the sixth embodiment, image data is uploaded to the
このようにしたので、第6の実施形態によっても、座席の状態を正確に把握できるようになる。加えて、エッジデバイスの負荷を軽減することができる。 With this configuration, it is possible to accurately grasp the state of the seat also according to the sixth embodiment. In addition, the load on edge devices can be reduced.
[第7の実施形態]
辞書データは、必ずしもシステムベンダー側で作成し、用意する必要はない。例えば椅子を販売する什器メーカから椅子の形状情報を入手し、この情報を元に辞書データを作成することが可能である。さらには、什器メーカから辞書データそのものが配布される形態も可能である。
[Seventh Embodiment]
The dictionary data does not necessarily have to be created and prepared by the system vendor. For example, it is possible to obtain shape information of chairs from a fixture maker that sells chairs, and create dictionary data based on this information. Furthermore, it is also possible to distribute the dictionary data itself from the furniture maker.
図21は、第7の実施形態における情報伝達の一例を示す図である。第7の実施形態においては、例えば以下の手順により辞書データが配布される。以下の手順は、例えば、椅子を配置されたエリアの画像センサに、その椅子の辞書データを配布する際に実施されることができる。
(10) 例えば什器メーカにより、ローカルの開発環境などで生成された辞書データ(椅子A)が、予めクラウド400のサーバにアップロードされ、記憶される。
(11) 画像センサ3-1~3-nは、生成された新しい辞書データの取得要求をゲートウェイ200へ送る。
(12) ゲートウェイ200は、新たな辞書データをクラウド400から取得する。
(13) ゲートウェイ200は、新たな辞書データを全ての画像センサ3、または指定された画像センサ3宛に送信する。
(14) 新たな辞書データを取得した画像センサ3は、記憶部32に記憶された辞書データを新たな辞書データに更新し、記憶する。
FIG. 21 is a diagram showing an example of information transmission in the seventh embodiment. In the seventh embodiment, dictionary data is distributed according to the following procedure, for example. The following procedure can be implemented, for example, in distributing the chair's dictionary data to the image sensors in the area where the chair is located.
(10) For example, dictionary data (chair A) generated in a local development environment or the like by a furniture maker is uploaded in advance to the server of the
(11) The image sensors 3-1 to 3-n send requests to the
(12)
(13)
(14) The
以上説明したように第7の実施形態では、予め別途用意された辞書データを対象の画像センサに配布することができる。このようにしたので、第7の実施形態によっても、座席の状態を正確に把握できるようになる。加えて、システム構築の自由度を高めることができる。 As described above, in the seventh embodiment, dictionary data separately prepared in advance can be distributed to target image sensors. Since this is done, it is possible to accurately grasp the state of the seat also according to the seventh embodiment. In addition, it is possible to increase the degree of freedom in system construction.
[第8の実施形態]
図22は、第8の実施形態に係わるゲートウェイ200の一例を示す図である。座席状態判定装置としてのゲートウェイ200は、CPUやMPU等のプロセッサ250と、ROM(Read Only Memory)220およびRAM(Random Access Memory)230を備えるコンピュータである。ゲートウェイ200は、さらに、ハードディスクドライブ(Hard Disk Drive:HDD)などの記憶部210、光学メディアドライブ260、および、インタフェース部270を備える。
[Eighth Embodiment]
FIG. 22 is a diagram showing an example of the
ROM220は、BIOS(Basic Input Output System)やUEFI(Unified Extensible Firmware Interface)などの基本プログラム、および各種の設定データ等を記憶する。RAM230は、記憶部210からロードされたプログラムやデータを一時的に記憶する。
The
光学メディアドライブ260は、CD-ROM280などの記録媒体に記録されたディジタルデータを読み取る。ゲートウェイ200で実行される各種プログラムは、例えばCD-ROM280に記録されて頒布される。このCD-ROM280に格納されたプログラムは光学メディアドライブ260により読み取られ、記憶部210にインストールされる。
Optical media drive 260 reads digital data recorded on a recording medium such as CD-ROM 280 . Various programs executed by the
インタフェース部270は、内部通信部270a、および外部通信部270bを備える。内部通信部270aは、センサネットワーク100に接続され、画像センサ3-1~3-nとの通信を制御する。外部通信部270bは、ビル内LANに接続され、ルータ300、コントローラ500、およびクラウド400との通信を制御する。ゲートウェイ200で実行される各種プログラムを、例えばインタフェース部270を介してクラウド400からダウンロードし、記憶部210にインストールすることもできる。インタフェース部270を介してクラウドサーバから最新のプログラムをダウンロードし、インストール済みのプログラムをアップデートすることもできる。
記憶部210は、人検出情報210a、および椅子検出情報210bを記憶する。
The
The
プロセッサ250は、OS(Operating System)および各種のプログラムを実行する。また、プロセッサ250は、第8の実施形態に係る処理機能として、人物検出部250a、椅子検出部250b、および、判定部250cを備える。人物検出部250a、椅子検出部250b、および判定部250cは、例えば、プロセッサ250のレジスタにロードされたプログラムに従い、プロセッサ250が演算処理を実行する過程で生成される、プロセスである。すなわち第8の実施形態では、画像センサ3に搭載されていた判定部が、ゲートウェイ200に実装される。
The
図23は、図22に示される機能ブロック間での情報の流れの一例を示す図である。図23において、ゲートウェイ200の内部通信部270aは、画像センサ3から送信された椅子検出情報および人検出情報を取得し、判定部250cに渡す。
FIG. 23 is a diagram showing an example of information flow between functional blocks shown in FIG. In FIG. 23, the
判定部250cは、人検出情報と椅子検出情報とに基づいて、座席ごとに空席または使用中のいずれかを判定し、座席状態情報を生成する。例えば、人検出情報に示される人の位置座標と、椅子検出情報に示される椅子の位置座標とから算出される人と椅子との距離が既定値以下であれば、判定部250cは、その椅子が使用中であると判定し、その椅子に係わる座席も使用中であると判定する。生成された座席状態情報は、外部通信部270bを介して例えばクラウド400宛に送出される。
The
以上説明したように第8の実施形態では、ゲートウェイ200に判定部250cを備え、画像センサからの椅子検出情報および人検出情報に基づいて、ゲートウェイ200において座席状態情報を生成するようにした。
As described above, in the eighth embodiment, the
このようにしたので、第8の実施形態によっても、座席の状態を正確に把握できるようになる。加えて、画像センサ3における処理負荷を軽減することができる。
With this configuration, it is possible to accurately grasp the state of the seat also according to the eighth embodiment. Additionally, the processing load on the
[第9の実施形態]
図24は、画像センサ3の他の例を示すブロック図である。第9の実施形態においては、人物検出部33a、および椅子検出部33bを画像センサ3に備え、画像センサ3では人検出情報と椅子検出情報を算出してゲートウェイ200に送信する。そして、判定部をゲートウェイ200に実装し、ゲートウェイ200側で座席状態を判定するようにする。
[Ninth Embodiment]
FIG. 24 is a block diagram showing another example of the
図25は、図24に示される機能ブロック間での情報の流れの一例を示す図である。画像センサ3において、人物検出部33aにより生成された人検出情報と、椅子検出部33bにより生成された椅子検出情報は、通信部34によりセンサIDとともにゲートウェイ200に向けて送信される。図26に示されるように、人検出情報および椅子検出情報はゲートウェイ200により取得され、ゲートウェイ200において座席状態情報が生成される。座席状態情報は、センサIDとともに例えばコントローラ500に伝送され、ビル内の照明機器や空調機器の制御に利用される。
FIG. 25 is a diagram showing an example of information flow between functional blocks shown in FIG. In the
以上説明したように第9の実施形態でも、ゲートウェイ200に判定部を備えるようにしたので、座席の状態を正確に把握できるのに加え、画像センサ3の負荷を軽減することができる。
As described above, in the ninth embodiment as well, the
[第10の実施形態]
図27は、例えばクラウド400に設けられるサーバ600の一例を示す機能ブロック図である。サーバ600は、画像センサ3からの人検出情報及び椅子検出情報を取得する通信処理部600bと、取得した人検出情報及び椅子検出情報に基づいて座席状態情報を生成する判定部600aとを備える。
[Tenth embodiment]
FIG. 27 is a functional block diagram showing an example of the
判定部600aは、人検出情報と椅子検出情報とに基づいて、座席ごとに空席または使用中のいずれかを判定し、座席状態情報を生成する。例えば、人検出情報に示される人の位置座標と、椅子検出情報に示される椅子の位置座標とから算出される人と椅子との距離が既定値以下であれば、判定部250cは、その椅子が使用中であると判定し、その椅子に係わる座席も使用中であると判定する。生成された座席状態情報は、通信処理部600bを介して例えば外部システムなどに宛てて送出される。
The
図28は、第10の実施形態における情報伝達の一例を示す図である。図28において、判定部600aはクラウド400の機能として理解されることができる。図28において、ゲートウェイ200は、画像センサ3から送信された椅子検出情報および人検出情報を、センサIDとともにルータ300経由でサーバ600に伝送する。
FIG. 28 is a diagram showing an example of information transmission in the tenth embodiment. 28, the
サーバ600の判定部400dは、人検出情報と椅子検出情報とに基づいて、座席ごとに空席または使用中のいずれかを判定し、座席状態情報を生成する。生成された座席状態情報は、センサIDとともに、例えば外部システム宛に送出される。
The determination unit 400d of the
以上説明したように第10の実施形態では、クラウド400のサーバ600に判定部600aを備え、画像センサからの椅子検出情報および人検出情報に基づいて、クラウド400において座席状態情報を生成するようにした。このようにしたので、第10の実施形態によっても、座席の状態を正確に把握できるようになる。加えて、画像センサ3、およびゲートウェイ200における処理負荷を軽減することができる。
As described above, in the tenth embodiment, the
[その他の実施形態]
なお、この発明は上記の実施形態に限られるものではなく、さらに多様な形態を取ることが可能である。
[Other embodiments]
It should be noted that the present invention is not limited to the above-described embodiments, and can take various forms.
図29は、センシングシステムの他の例を示す図である。図29において、通信装置700により、ゲートウェイ200がクラウド400と直接通信する機能を備え、クラウド400がゲートウェイ200経由で直接、各画像センサ3と通信可能な形態としてもよい。つまり、ゲートウェイ200に、広域ネットワーク接続用の通信機能を備えるようにしてもよい。
FIG. 29 is a diagram showing another example of the sensing system. In FIG. 29, the
図30は、センシングシステムの他の例を示す図である。図30に示されるように、センサネットワーク101として、渡り配線でなくマルチドロップ型のトポロジを採用することも可能である。図30は、ゲートウェイ200が広域ネットワーク接続用の通信機能を備える形態を示すが、図31に示されるように、画像センサ3とクラウド400との間にビル内LANが配設される形態ももちろん可能である。
FIG. 30 is a diagram showing another example of the sensing system. As shown in FIG. 30, as the
このほか、図32に示されるように、複数の画像センサ3-1~3-nがビル内LANに直接、接続されていてもよい。さらには、図33に示されるように、画像センサ3に通信装置700を持たせ、画像センサ3に直接広域ネットワーク接続用の通信機能を具備してもよい。
Alternatively, as shown in FIG. 32, a plurality of image sensors 3-1 to 3-n may be directly connected to the intra-building LAN. Furthermore, as shown in FIG. 33, the
本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While several embodiments of the invention have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.
1…照明機器、2…空調機器、3…画像センサ、3-1~3-n…画像センサ、15…プロセッサ、30…レジスタ、30a…カメラ情報、31…撮像部、31a…魚眼レンズ、31b…絞り機構、31c…撮像素子、32…記憶部、32a…画像データ、32b…プログラム、32d…椅子位置情報、32e…辞書データ、33…プロセッサ、33a…人物検出部、33b…椅子検出部、33c…判定部、33d…検出部、33e…画像データ処理部、34…通信部、35…内部バス、100…センサネットワーク、101…センサネットワーク、200…ゲートウェイ、210…記憶部、210a…人検出情報、210b…椅子検出情報、220…ROM、230…RAM、250…プロセッサ、250a…人物検出部、250b…椅子検出部、250c…判定部、260…光学メディアドライブ、270…インタフェース部、270a…内部通信部、270b…外部通信部、300…ルータ、400…クラウド(クラウドコンピューティングシステム)、400a…画像処理部、400b…センサ管理部、400c…辞書生成部、400d…判定部、401…画像データベース、500…コントローラ、600…サーバ、600a…判定部、600b…通信処理部、700…通信装置。
Claims (11)
前記画像センサは、
前記撮像素子で対象空間を撮像して得られた画像データから、前記対象空間における人の位置情報を示す人検出情報を生成し、前記画像データから、前記対象空間における椅子の位置情報を示す椅子検出情報を生成する、検出部と、
前記人検出情報と前記椅子検出情報とに基づいて座席の状態を判定し、当該座席の状態を示す座席状態情報を生成する判定部と、
人検出用の辞書データと、前記椅子の形状情報を格納する椅子検出用の複数の辞書データとが記録された記憶部と、を具備し、
前記検出部は、前記人検出用の辞書データを用いて前記人検出情報を生成することと、前記椅子検出用の辞書データを用いて前記椅子検出情報を生成することとを交互に行い、前記椅子検出情報の生成に際し、前記椅子検出用の複数の辞書データを順次切り替えて用いる、座席状態センシングシステム。 Equipped with an image sensor having an imaging element,
The image sensor is
Human detection information indicating the position information of a person in the target space is generated from the image data obtained by imaging the target space with the imaging device, and the chair indicating the position information of the chair in the target space from the image data. a detector that generates detection information;
a determination unit that determines a seat state based on the person detection information and the chair detection information and generates seat state information indicating the state of the seat ;
a storage unit in which dictionary data for human detection and a plurality of dictionary data for chair detection storing shape information of the chair are recorded ;
The detecting unit alternately generates the human detection information using the dictionary data for human detection and generates the chair detection information using the dictionary data for chair detection. A seat state sensing system that sequentially switches and uses a plurality of dictionary data for chair detection when generating chair detection information .
前記画像センサは、
前記撮像素子で対象空間を撮像して得られた画像データから、前記対象空間における人の位置情報を示す人検出情報を生成し、前記画像データから、前記対象空間における椅子の位置情報を示す椅子検出情報を生成する検出部と、
人検出用の辞書データと、前記椅子の形状情報を格納する椅子検出用の複数の辞書データとが記録された記憶部と、を備え、
前記検出部は、前記人検出用の辞書データを用いて前記人検出情報を生成することと、前記椅子検出用の辞書データを用いて前記椅子検出情報を生成することとを交互に行い、前記椅子検出情報の生成に際し、前記椅子検出用の複数の辞書データを順次切り替えて用い、
前記サーバは、
前記人検出情報と前記椅子検出情報とに基づいて座席の状態を判定し、当該座席の状態を示す座席状態情報を生成する判定部を具備する、座席状態センシングシステム。 Equipped with an image sensor having an imaging element and a server capable of communicating with the image sensor,
The image sensor is
Human detection information indicating the position information of a person in the target space is generated from the image data obtained by imaging the target space with the imaging device, and the chair indicating the position information of the chair in the target space from the image data. a detection unit that generates detection information;
a storage unit in which dictionary data for human detection and a plurality of dictionary data for chair detection storing shape information of the chair are recorded ;
The detecting unit alternately generates the human detection information using the dictionary data for human detection and generates the chair detection information using the dictionary data for chair detection. when generating chair detection information, sequentially switching and using a plurality of dictionary data for chair detection,
The server is
A seat state sensing system comprising a determination unit that determines a state of a seat based on the person detection information and the chair detection information and generates seat state information indicating the state of the seat.
前記画像センサは、
前記撮像素子で対象空間を撮像して得られた画像データから、前記対象空間における人の位置情報を示す人検出情報を生成し、前記画像データから、前記対象空間における椅子の位置情報を示す椅子検出情報を生成する検出部と、
人検出用の辞書データと、前記椅子の形状情報を格納する椅子検出用の複数の辞書データとが記録された記憶部と、を備え、
前記検出部は、前記人検出用の辞書データを用いて前記人検出情報を生成することと、前記椅子検出用の辞書データを用いて前記椅子検出情報を生成することとを交互に行い、前記椅子検出情報の生成に際し、前記椅子検出用の複数の辞書データを順次切り替えて用い、
前記ゲートウェイ装置は、
前記人検出情報と前記椅子検出情報とに基づいて座席の状態を判定し、当該座席の状態を示す座席状態情報を生成する判定部を具備する、座席状態センシングシステム。 comprising an image sensor having an imaging element and a gateway device that communicably connects the image sensor to a network;
The image sensor is
Human detection information indicating the position information of a person in the target space is generated from the image data obtained by imaging the target space with the imaging device, and the chair indicating the position information of the chair in the target space from the image data. a detection unit that generates detection information;
a storage unit in which dictionary data for human detection and a plurality of dictionary data for chair detection storing shape information of the chair are recorded ;
The detecting unit alternately generates the human detection information using the dictionary data for human detection and generates the chair detection information using the dictionary data for chair detection. when generating chair detection information, sequentially switching and using a plurality of dictionary data for chair detection,
The gateway device
A seat state sensing system comprising a determination unit that determines a state of a seat based on the person detection information and the chair detection information and generates seat state information indicating the state of the seat.
前記人の位置情報を示す座標と前記椅子の位置情報を示す座標とから算出される距離が既定値以下であれば、当該椅子が使用中であると判定する、請求項1乃至3のいずれか1項に記載の座席状態センシングシステム。 The determination unit
4. The chair is determined to be in use if the distance calculated from the coordinates indicating the position information of the person and the coordinates indicating the position information of the chair is equal to or less than a predetermined value. 2. The seat state sensing system according to item 1.
前記画像センサが、前記撮像素子で対象空間を撮像して画像データを取得し、
前記画像センサが、前記画像データから、人検出用の辞書データを用いて前記対象空間における人の位置情報を示す人検出情報を生成することと、前記画像データから、椅子の形状情報を格納する椅子検出用の複数の辞書データのいずれかを用いて前記対象空間における前記椅子の位置情報を示す椅子検出情報を生成することと、を交互に行い、前記椅子検出情報の生成に際し、前記椅子検出用の複数の辞書データを順次切り替えて用い、
前記画像センサが、前記人検出情報と前記椅子検出情報とに基づいて座席の状態を判定する、座席状態判定方法。 A seat state determination method applicable to a sensing system equipped with an image sensor having an imaging element,
the image sensor acquires image data by imaging the target space with the imaging device;
The image sensor generates human detection information indicating position information of a person in the target space from the image data using dictionary data for human detection, and stores shape information of a chair from the image data. generating chair detection information indicating the position information of the chair in the target space by using any one of a plurality of dictionary data for chair detection; and generating the chair detection information when generating the chair detection information. use multiple dictionary data for
A seat state determination method, wherein the image sensor determines the state of the seat based on the person detection information and the chair detection information.
前記画像センサが、前記撮像素子で対象空間を撮像して画像データを取得し、
前記画像センサが、前記画像データから、人検出用の辞書データを用いて前記対象空間における人の位置情報を示す人検出情報を生成することと、前記画像データから、椅子の形状情報を格納する椅子検出用の複数の辞書データのいずれかを用いて前記対象空間における前記椅子の位置情報を示す椅子検出情報を生成することと、を交互に行い、前記椅子検出情報の生成に際し、前記椅子検出用の複数の辞書データを順次切り替えて用い、
前記サーバが、
前記人検出情報と前記椅子検出情報とに基づいて座席の状態を判定する、座席状態判定方法。 A seat state determination method applicable to a sensing system comprising an image sensor having an imaging element and a server capable of communicating with the image sensor,
the image sensor acquires image data by imaging the target space with the imaging device;
The image sensor generates human detection information indicating position information of a person in the target space from the image data using dictionary data for human detection, and stores shape information of a chair from the image data. generating chair detection information indicating the position information of the chair in the target space by using any one of a plurality of dictionary data for chair detection; and generating the chair detection information when generating the chair detection information. use multiple dictionary data for
the server
A seat state determination method, wherein a seat state is determined based on the person detection information and the chair detection information.
前記画像センサが、前記撮像素子で対象空間を撮像して画像データを取得し、
前記画像センサが、前記画像データから、人検出用の辞書データを用いて前記対象空間における人の位置情報を示す人検出情報を生成することと、前記画像データから、椅子の形状情報を格納する椅子検出用の複数の辞書データのいずれかを用いて前記対象空間における前記椅子の位置情報を示す椅子検出情報を生成することと、を交互に行い、前記椅子検出情報の生成に際し、前記椅子検出用の複数の辞書データを順次切り替えて用い、
前記ゲートウェイ装置が、前記人検出情報と前記椅子検出情報とに基づいて座席の状態を判定する、座席状態判定方法。 A seat state determination method applicable to a sensing system comprising an image sensor having an imaging device and a gateway device communicably connecting the image sensor to a network,
the image sensor acquires image data by imaging the target space with the imaging device;
The image sensor generates human detection information indicating position information of a person in the target space from the image data using dictionary data for human detection, and stores shape information of a chair from the image data. generating chair detection information indicating the position information of the chair in the target space by using any one of a plurality of dictionary data for chair detection; and generating the chair detection information when generating the chair detection information. use multiple dictionary data for
A seat state determination method, wherein the gateway device determines a seat state based on the person detection information and the chair detection information.
前記画像データから、前記対象空間における人の位置情報を示す人検出情報を生成し、前記画像データから、前記対象空間における椅子の位置情報を示す椅子検出情報を生成する、検出部と、
前記人検出情報と前記椅子検出情報とに基づいて座席の状態を判定し、当該座席の状態を示す座席状態情報を生成する判定部と、
人検出用の辞書データと、前記椅子の形状情報を格納する椅子検出用の複数の辞書データとが記録された記憶部と、を具備し、
前記検出部は、前記人検出用の辞書データを用いて前記人検出情報を生成することと、前記椅子検出用の辞書データを用いて前記椅子検出情報を生成することとを交互に行い、前記椅子検出情報の生成に際し、前記椅子検出用の複数の辞書データを順次切り替えて用いる、画像センサ。
an imaging device that captures an image of a target space and acquires image data;
a detection unit that generates person detection information indicating position information of a person in the target space from the image data, and generates chair detection information indicating position information of a chair in the target space from the image data;
a determination unit that determines a seat state based on the person detection information and the chair detection information and generates seat state information indicating the state of the seat ;
a storage unit in which dictionary data for human detection and a plurality of dictionary data for chair detection storing shape information of the chair are recorded ;
The detecting unit alternately generates the human detection information using the dictionary data for human detection and generates the chair detection information using the dictionary data for chair detection. An image sensor that sequentially switches and uses a plurality of dictionary data for chair detection when generating chair detection information .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018156286A JP7145693B2 (en) | 2018-08-23 | 2018-08-23 | SEAT CONDITION SENSING SYSTEM, SEAT CONDITION DETERMINATION METHOD, AND IMAGE SENSOR |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018156286A JP7145693B2 (en) | 2018-08-23 | 2018-08-23 | SEAT CONDITION SENSING SYSTEM, SEAT CONDITION DETERMINATION METHOD, AND IMAGE SENSOR |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020030653A JP2020030653A (en) | 2020-02-27 |
JP7145693B2 true JP7145693B2 (en) | 2022-10-03 |
Family
ID=69622583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018156286A Active JP7145693B2 (en) | 2018-08-23 | 2018-08-23 | SEAT CONDITION SENSING SYSTEM, SEAT CONDITION DETERMINATION METHOD, AND IMAGE SENSOR |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7145693B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011008454A (en) | 2009-06-25 | 2011-01-13 | Hitachi Ltd | Information providing system |
JP2013172388A (en) | 2012-02-22 | 2013-09-02 | Nikon Corp | Display device and program |
JP2018085001A (en) | 2016-11-24 | 2018-05-31 | キヤノンマーケティングジャパン株式会社 | Information processing device, information processing method, and program |
WO2018116359A1 (en) | 2016-12-19 | 2018-06-28 | 株式会社オプティム | Computer system, shop information providing method, and program |
JP2018125613A (en) | 2017-01-30 | 2018-08-09 | 沖電気工業株式会社 | Information processing system, information processing apparatus, and information processing method |
-
2018
- 2018-08-23 JP JP2018156286A patent/JP7145693B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011008454A (en) | 2009-06-25 | 2011-01-13 | Hitachi Ltd | Information providing system |
JP2013172388A (en) | 2012-02-22 | 2013-09-02 | Nikon Corp | Display device and program |
JP2018085001A (en) | 2016-11-24 | 2018-05-31 | キヤノンマーケティングジャパン株式会社 | Information processing device, information processing method, and program |
WO2018116359A1 (en) | 2016-12-19 | 2018-06-28 | 株式会社オプティム | Computer system, shop information providing method, and program |
JP2018125613A (en) | 2017-01-30 | 2018-08-09 | 沖電気工業株式会社 | Information processing system, information processing apparatus, and information processing method |
Non-Patent Citations (2)
Title |
---|
Mengyi Wu et al.,"Statistics on the Number of People in the Regular Scene Based on Hough and SVM",2016 2nd IEEE International Conference on Computer and Communications (ICCC),米国,IEEE,2016年10月14日,pp.380-384 |
藤田 真一、外2名,"画像処理を用いた計算機室の監視システム",SSII2012 第18回画像センシングシンポジウム 講演論文集,日本,画像センシング技術研究会,2012年06月06日,pp.1-7 |
Also Published As
Publication number | Publication date |
---|---|
JP2020030653A (en) | 2020-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101895727B (en) | Monitoring system, image capturing apparatus, analysis apparatus, and monitoring method | |
US9295141B2 (en) | Identification device, method and computer program product | |
US20090115597A1 (en) | Energy saving and security system | |
EP3553739B1 (en) | Image recognition system and image recognition method | |
CN103189687A (en) | Energy management system | |
CN108875823B (en) | Evidence combination method based on evidence measurement standard | |
JP7094814B2 (en) | Detection system and detection method | |
JP2015103104A (en) | Information processing apparatus, information processing method, and information processing system | |
CN108292357A (en) | Image processing system | |
JP2023076454A (en) | Sensing system, maintenance terminal device, data distribution method, and image sensor | |
TW202113742A (en) | Iot contextually-aware digital twin with enhanced discovery | |
JP7145693B2 (en) | SEAT CONDITION SENSING SYSTEM, SEAT CONDITION DETERMINATION METHOD, AND IMAGE SENSOR | |
JP2019087787A (en) | Image sensor, sensing method, control system, and program | |
JP6495691B2 (en) | Moving object detection device, moving object detection method, and computer program | |
JP6696687B2 (en) | Lighting control system, lighting control method, lighting control device, and computer program | |
JP7353964B2 (en) | Guidance system, server, program and service provision method | |
JP7419095B2 (en) | Image sensors, computing devices, and image sensor systems | |
JP7254570B2 (en) | Image sensor system, computing device, sensing method, and program | |
JP6524201B2 (en) | Building equipment control system and image sensor device | |
JP2023542620A (en) | Systems and methods for detecting and tracking individuals showing symptoms of infection | |
JP2021103420A (en) | Guiding system, server, program, and service providing method | |
JP7183232B2 (en) | Physical condition evaluation system, server, program and method of providing physical condition evaluation service | |
JP5521560B2 (en) | Context information communication system, context information processing apparatus, program, and method | |
JP6658402B2 (en) | Frame rate determination device, frame rate determination method, and computer program for frame rate determination | |
JP7237499B2 (en) | Image sensor, sensing method, control system and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210616 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220805 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220920 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7145693 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |