JP7005285B2 - 画像センサ、センシング方法、制御システム及びプログラム - Google Patents

画像センサ、センシング方法、制御システム及びプログラム Download PDF

Info

Publication number
JP7005285B2
JP7005285B2 JP2017212106A JP2017212106A JP7005285B2 JP 7005285 B2 JP7005285 B2 JP 7005285B2 JP 2017212106 A JP2017212106 A JP 2017212106A JP 2017212106 A JP2017212106 A JP 2017212106A JP 7005285 B2 JP7005285 B2 JP 7005285B2
Authority
JP
Japan
Prior art keywords
sensing
image
image sensor
area
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017212106A
Other languages
English (en)
Other versions
JP2019087787A (ja
Inventor
孝明 榎原
禎敏 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2017212106A priority Critical patent/JP7005285B2/ja
Priority to PCT/JP2018/038170 priority patent/WO2019087742A1/ja
Publication of JP2019087787A publication Critical patent/JP2019087787A/ja
Application granted granted Critical
Publication of JP7005285B2 publication Critical patent/JP7005285B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Description

本発明の実施形態は、画像センサ、センシング方法、制御システム及びプログラムに関する。
近年の画像センサは、CPU(Central Processing Unit)やメモリを備え、いわばレンズ付きの組み込みコンピュータといえる。高度な画像処理機能も有しており、撮影した画像データを分析して、例えば人間の在・不在、あるいは人数などを計算することができる。この種の画像センサは、ビル管理システムと組み合わせて、快適性、居住性の向上や省エネルギー化の促進などに活用されようとしている。
再公表WO2013/187047号公報
既存の画像センサは、特定の場所の明るさや、人間の在・不在、あるいは通過・滞在を検知できるに留まっていた。近年では、さらに多数の項目にわたる情報をセンシング可能な画像センサが望まれている。特に、人間の活動量や、歩行・滞留などの指標を数値化することのできる画像センサが要望されている。
そこで、目的は、センシング項目を増やして可用性を高めた画像センサ、センシング方法、制御システム及びプログラムを提供することにある。
実施形態によれば、画像センサは、撮像部と、画像処理部とを具備する。撮像部は、対象空間を撮像して画像データを取得する。画像処理部は、画像データを画像処理して対象空間における人物の歩行・滞留をセンシングする。
図1は、実施形態に係る画像センサを備えるビル管理システムの一例を示す模式図である。 図2は、ビルのフロア内の様子を例示する図である。 図3は、ビルにおける通信ネットワークの一例を示す図である。 図4は、実施形態に係る画像センサの一例を示すブロック図である。 図5は、第1の実施形態に係る画像センサにおけるデータの流れの一例を示す図である。 図6は、第1の実施形態に係る画像センサ3における処理手順の一例を示すフローチャートである。 図7は、第1の実施形態に係る画像センサ3における処理手順の他の例を示すフローチャートである。 図8は、画像センサ3における処理結果の一例を示す図である。 図9は、分割されたエリアごとの処理結果の一例を示す図である。 図10は、第2の実施形態に係る画像センサにおけるデータの流れの一例を示す図である。 図11は、第2の実施形態に係る画像センサ3における処理手順の一例を示すフローチャートである。 図12は、魚眼レンズ31aに捕えられた対象領域の画像の一例を示す図である。 図13は、図12に示される画像にマスク領域を設定した状態の一例を示す図である。 図14は、画像の端を処理対象外とするように設定されたマスクを模式的に示す図である。 図15は、マスクの無い設定を模式的に示す図である。 図16は、センシング項目ごとに異なるマスク領域を使用することを模式的に示す図である。 図17は、ブロックに分割された対象領域を模式的に示す図である。
画像センサは、人感センサ、明かりセンサあるいは赤外線センサ等に比べて多様な情報を取得することができる。魚眼レンズや超広角レンズなどを用いれば1台の画像センサで撮影可能な領域を拡大できるし、画像の歪みは計算処理で補正できる。画像センサに学習機能を持たせることも可能である。
図1は、実施形態に係る画像センサを備えるビル管理システムの一例を示す模式図である。図1において、照明機器1、空調機器2、および画像センサ3は、ビル100の各フロアごとに設けられ、制御装置40と通信可能に接続される。各階の制御装置40は、例えばビル管理センタ等に設けられるビル監視装置50と、ビル内ネットワーク500経由で通信可能に接続される。ビル内ネットワーク500の通信プロトコルとしてはBuilding Automation and Control Networking protocol(BACnet(登録商標))が代表的である。
ビル監視装置50は、例えばTCP/IP(Transmission Control Protocol / Internet Protocol)ベースの通信ネットワーク600経由で、クラウドコンピューティングシステム(クラウド)200に接続されることができる。クラウド200は、サーバ300およびデータベース400を備え、ビル管理に関するサービスを提供する。
図2に示されるように、照明機器1、空調機器2の吹き出し口、および画像センサ3は各フロアの例えば天井に配設される。画像センサ3は、視野内に捕えた映像を撮影して画像データを取得する。この画像データは画像センサ3において処理され、環境情報、および/または人物情報が生成される。これらの情報を利用して、照明機器1および空調機器2を制御することができる。
画像センサ3は、画像データを処理し、環境情報および人物情報を取得する。環境情報は、撮像対象の空間(ゾーン)の環境に関する情報である。例えば、環境情報は、オフィスの照度や温度などを示す情報である。人物情報は、対象空間における人間に関する情報である。例えば、人物情報は、人の存在または不在(在・不在と称する)、人数、人の行動、人の活動量などを示す情報である。
ゾーンを複数に分割した小領域のそれぞれを、エリアと称する。例えば環境情報および人物情報を、エリアごとに算出することが可能である。実施形態では、人物情報の一つとしての歩行・滞留について説明する。歩行・滞留とは、人が歩いているか、または1つの場所に留まっているかを示す情報である。
図3は、ビル100における通信ネットワークの一例を示す図である。図3において、照明機器1、空調機器2、および画像センサ3は信号線Lを介してデイジーチェーン状に接続される。このうち例えば一つの画像センサ3が、ゲートウェイ(GW)7-1を介してビル内ネットワーク500に接続される。これにより全ての照明機器1、空調機器2、および画像センサ3が、ビル内ネットワーク500経由でビル監視装置5に接続される。
それぞれの画像センサ3は、LAN(Local Area Network)10、ハブ(Hub)6、およびゲートウェイ(GW)7-2経由でビル内ネットワーク500に接続される。これにより画像センサ3で取得された画像データ、環境情報および人物情報は、信号線Lとは独立にビル内ネットワーク500経由で制御装置4、表示装置11およびビル監視装置5に伝送される。
さらに、各画像センサ3は、LAN10経由で相互に通信することが可能である。
制御装置4は、画像センサ3から送られた環境情報および人物情報に基づき、照明機器1や空調機器2を制御するための制御情報を生成する。この制御情報はゲートウェイ7-1および信号線Lを介して照明機器1、空調機器2に送られる。
表示装置11は、画像センサ3から取得した環境情報および人物情報、あるいはビル監視装置5から取得した各種の情報を視覚的に表示する。
さらに、無線アクセスポイント8が、例えばゲートウェイ7-2に接続される。これにより、無線通信機能を備えたノートパソコン9等がゲートウェイ7-2経由で画像センサ3にアクセスすることができる。
図4は、実施形態に係る画像センサ3の一例を示すブロック図である。画像センサ3は、撮像部としてのカメラ部31と、メモリ32、プロセッサ33、および通信部34を備える。これらは内部バス35を介して互いに接続される。メモリ32とプロセッサ33を備えることで、画像センサ3はコンピュータとして機能する。
カメラ部31は、魚眼レンズ31a、絞り機構31b、イメージセンサ31cおよびレジスタ30を備える。魚眼レンズ31aは、オフィスフロア内の空間(対象空間)を天井から見下ろす形で視野に捕え、イメージセンサ31cに結像する。魚眼レンズ31aからの光量は絞り機構31bにより調節される。イメージセンサ31cは例えばCMOS(相補型金属酸化膜半導体)センサであり、例えば毎秒30フレームのフレームレートの映像信号を生成する。この映像信号はディジタル符号化され、画像データとして出力される。
レジスタ30は、カメラ情報30aを記憶する。カメラ情報30aは、例えばオートゲインコントロール機能の状態、ゲインの値、露光時間などの、カメラ部31に関する情報、あるいは画像センサ3それ自体に関する情報である。
メモリ32は、SDRAM(Synchronous Dynamic RAM)などの半導体メモリ、あるいはEPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)などの不揮発性メモリであり、実施形態に係わる各種の機能をプロセッサ33に実行させるためのプログラム32b、およびカメラ部31により取得された画像データ32aなどを記憶する。さらにメモリ32は、マスク設定データ32c、および辞書データ32dを記憶する。
マスク設定データ32cは、カメラ部31に捕えられた視野のうち、画像処理する領域(画像処理の対象領域)と、画像処理しない領域(画像処理の非対象領域)とを区別するために用いられるデータである。マスク設定データ32cは、例えばノートパソコン9(図3)から通信部34経由で各画像センサ3に設定することが可能である。
辞書データ32dは、センシング項目と特徴量とを対応づけたテーブル形式のデータであり、例えば機械学習(Machine-Learning)等の手法により生成することが可能である。
プロセッサ33は、メモリ32に記憶されたプログラムをロードし、実行することで、実施形態において説明する各種の機能を実現する。プロセッサ33は、例えばマルチコアCPU(Central Processing Unit)を備え、画像処理を高速で実行することについてチューニングされたLSI(Large Scale Integration)である。FPGA(Field Programmable Gate Array)等でプロセッサ15を構成することもできる。MPU(Micro Processing Unit)もプロセッサの一つである。
通信部34は、信号線LおよびLAN10に接続可能で、ビル監視装置5、ノートパソコン9、および他の画像センサ3を含む通信相手先とのデータの授受を仲介する。通信のインタフェースは有線でも無線でもよい。通信ネットワークのトポロジはスター型、リング型など任意のトポロジを適用できる。通信プロトコルは汎用プロトコルでも、産業用プロトコルでもよい。単独の通信方法でもよいし、複数の通信方法を組み合わせてもよい。
特に、通信部34は、画像センサ3によるセンシングの結果や、プロセッサ33の処理結果、処理データ、パラメータなどを、通信ネットワークとしての信号線L、あるいはLAN10に送出する。これにより、上記データや情報は、他の画像センサ3、ビル監視装置5、およびノートパソコン9等と、ビル内ネットワーク500等を経由して共有されることが可能である。
ところで、プロセッサ33は、実施形態に係る処理機能として、動き抽出部33a、画像処理部33b、情報連携部33c、およびマスク設定部33dを備える。動き抽出部33a、画像処理部33b、情報連携部33c、およびマスク設定部33dは、メモリ32に記憶されたプログラム32bがプロセッサ33のレジスタにロードされ、当該プログラムの進行に伴ってプロセッサ33が演算処理を実行することで生成されるプロセスとして、理解され得る。つまりプログラム32bは、動き抽出プログラム、画像処理プログラム、情報連携プログラム、およびマスク設定プログラム、を含む。
動き抽出部33aは、メモリ32に蓄積された画像データ32aを所定のアルゴリズムで画像処理して、対象空間における動き特徴量を抽出する。例えば、画像データに含まれるフレームの輝度の変化をピクセルごとにトレースし、その時系列を分析することで動き特徴量を計算することができる。特徴量としては、輝度勾配方向ヒストグラム(Histograms of Oriented Gradients:HOG)、コントラスト、解像度、S/N比、および色調などがある。輝度勾配方向共起ヒストグラム(Co-occurrence HOG:Co-HOG)特徴量、Haar-Like特徴量なども特徴量として知られている。
動き抽出部33aは、特に、カメラ部31の視野内における物体の動きを示す動き特徴量を抽出する。また動き抽出部33aは、画像データ32aから、例えばフレーム間差分法により対象空間における動き領域を抽出する。さらに、動き抽出部33aは、対象空間を分割した複数のエリアごとに動き領域を抽出することもできる。
画像処理部33bは、画像データ32aを画像処理して対象空間における人物の歩行・滞留をセンシングする。画像処理部33bは、例えば、動き抽出部33aにより抽出された動き特徴量に基づいてルールベースによる識別処理、あるいは機械学習による識別処理により、歩行・滞留をセンシングする。動き抽出部33aにより動き領域が抽出されていれば、画像処理部33bは、当該動き領域に対して歩行・滞留を判定する。さらに、対象空間が複数のエリアに分割されていれば、画像処理部33bは、各エリアごとの動き領域に対して歩行・滞留を判定する。
また、画像処理部33bは、歩行・滞留、在・不在、人数、活動量、照度のうち複数のセンシング項目をセンシングする。複数のエリアごとに、これらの複数のセンシング項目を判定することもできる。また、画像処理部33bは、在・不在のセンシング結果に基づいて、歩行・滞留、人数、活動量、および照度の少なくともいずれか1つのセンシングに係わる判定ロジックを切り替える。
また、画像処理部33bは、エリアをさらに複数に分割したブロックごとに各センシング項目をセンシングし、ブロックごとのセンシング結果を統合してエリアごとのセンシング結果を得る。また、画像処理部33bは、対象空間における個人を検出し、当該個人の検出の結果を在・不在、人数、活動量、または歩行・滞留のセンシング結果に反映させる。
また、画像処理部33bは、対象空間において滞在を判定されたエリアにおいて、歩行・滞留を前記滞在とセンシングする。逆に、前回処理で滞在を判定されたエリアにおける在・不在の判定結果が不在であれば、画像処理部33bは、当該エリアにおける歩行・滞留に関して通過とセンシングする。
情報連携部33cは、画像処理部33bによりセンシングされた歩行・滞留、在・不在、人数、活動量、照度のいずれかのセンシング項目に係わる情報を、他のセンシング項目のセンシングに反映させる。例えば、情報連携部33cは、在・不在のセンシング結果を、歩行・滞留、人数、活動量、および照度の少なくともいずれか1つのセンシングに反映させる。
領域設定部としてのマスク設定部33dは、カメラ部31の撮像範囲を画像処理の対象領域と非対象領域(マスク領域)とに区分し、各エリアの座標などのデータをマスク設定データ32cに設定する。マスク領域が設定されると、画像処理部33bは、マスキングされていない領域(対象領域)の画像データを画像処理する。
特に、マスク設定部33dは、歩行・滞留、在・不在、人数、活動量、照度の各センシング項目ごとにマスク領域を設定する。画像処理部33bは、各センシング項目ごとに設定された対象領域(非マスク領域)の画像データを画像処理する。次に、上記構成を基礎として複数の実施形態を説明する。
[第1の実施形態]
図5は、第1の実施形態に係る画像センサにおけるデータの流れの一例を示す図である。図5において、カメラ部31で取得された画像データ32aは、メモリ32に一時的に記憶されたのち、プロセッサ33の動き抽出部33aに送られる。動き抽出部33aは、画像データ32aを画像処理して、動き特徴量を抽出する。抽出された動き特徴量は、画像処理部33bに渡される。
画像処理部33bは、在・不在、推定人数(人数)、活動量、推定照度(照度)、および歩行・滞留の5種類の項目を画像データ32aからセンシングする。これらのセンシング項目の全てを常時、同時に全項目をセンシングしても良い。または、必要に応じて個別にセンシングしてもよい。項目ごとの処理の周期は、例えばフレーム周期に同期して全ての項目で同じであっても良いし、項目ごとに異なっていても良い。
在・不在については、例えば背景差分/フレーム間差分/人物認識などを用いて人物領域を抽出し、在・不在を判定することができる。ゾーンがエリアに分割されていれば(エリア分割)、エリアごとに人物領域があるか否かを判定し、エリアごとの在・不在を推定することができる。さらに、照明変動判定などによる誤検知抑制機能を持たせることも可能である。
推定人数については、例えば背景差分/フレーム間差分/人物認識などを用いて人物領域を抽出し、人物領域から個人を検知して人数を推定することができる。エリア分割がある場合には、個人の位置を推定し、エリアごとに人数を推定することができる。
活動量については、フレーム間差分などを用いて動き領域を抽出し、活動量を推定することができる。活動量を、例えば、無/小/中/大などのように複数の段階に分類しても良い。あるいはMETs(Metabolic equivalents)等の指標で活動量を表してもよい。さらに、エリア分割の設定があれば、エリアごとに動き領域を抽出し、エリアごとの活動量を推定することができる。
推定照度については、画像データ32aと、ゲイン、露光時間などのカメラ情報に基づいて推定することができる。カメラ情報(30a)は、カメラ部31のレジスタ30から取得することができる。エリア分割の設定があれば、エリアごとに画像を分割し、分割した画像とカメラ情報からエリアごとの照度を推定することができる。
歩行・滞留については、フレーム間差分などを用いて動き領域を抽出し、歩行・滞留を判定することができる。エリア分割の設定があれば、エリアごとに動き領域を抽出し、エリアごとの歩行・滞留を推定することができる。
以上のようにして、各センシング項目のセンシングデータを得ることができる。通信部34は、カメラ部31、動き抽出部33a、画像処理部33bの処理結果や処理データ、センシングデータ、パラメータなどをネットワークに送出する。
図6は、第1の実施形態に係る画像センサ3における処理手順の一例を示すフローチャートである。画像センサ3は、カメラ部31により画像データを取得し(ステップS1)、メモリ32にこの画像データ32aを記憶する(ステップS2)。次に、画像センサ3は、画像データ32aを画像処理し、その結果に基づいて、対象空間における人物の在・不在を判定し(ステップS3)、人数を推定し(ステップS4)、活動量を推定し(ステップS5)、照度を推定し(ステップS6)、歩行・滞留をセンシングする(ステップS7)。
図7は、第1の実施形態に係る画像センサ3における処理手順の他の例を示すフローチャートである。図7において、画像センサ3は、メモリ32に蓄積された画像データ32aを画像処理して、在・不在のセンシング結果を得る(ステップS9)。そして画像センサ3は、在・不在の判定の結果に基づいて判定ロジックを切り替え、人数、活動量、照度および歩行・滞留を推定する(ステップS4、S5、S6、S7)。
例えば、前状態が不在であれば在と判定しにくくなるロジックを選択することで誤検知を抑制することができる。逆に、前状態が在であれば在と判定しやすくなるロジックを選択し、未検知を抑制することができる。。
また、不在と判定されたエリアでは人数推定、活動量推定、照度推定、歩行・滞留判定を行わないというロジックを設定することもできる。例えば在・不在の判定結果が“不在”であれば人数は0人であり、活動量も無であることが画像処理の結果を得るまでもなく判定できる。これにより計算リソースの削減などの効果を得られる。
図8は、画像センサ3における処理結果の一例を示す図である。図8においては、在・不在として“在”、人数として“一人”、活動量として“中”、照度として“500lx(ルクス)”、歩行・滞留として“歩行”の、各センシング結果が得られている。
図9は、分割されたエリアごとの処理結果の一例を示す図である。図9において、例えばエリア4に着座者が存在するので、そのエリアの照明は明るく調光されている。つまり推定照度は高い(500lx)。また、エリア1、3には歩行者がいるので、照明は暗く調光されている。つまり推定照度が低いことが分かる。
以上説明したようにこの実施形態では、画像センサ3において画像データを画像処理した結果に基づき、対象空間における歩行・滞留をセンシングできるようにした。歩行・滞留は、例えば照明制御に係わる保持時間の制御に活用することができる。例えば、制御部としてのプロセッサ33の制御に基づいて、歩行をセンシングされたエリアで不在になれば照明の点灯保持時間を短くする。このようにすることで、照明制御の省エネ性を向上させることができる。逆に、滞留をセンシングされたエリアで不在になれば、照明の点灯保持時間を長くするとよい。
既存の画像センサは、主に照明制御向けの用途の限られたものであったので、センシング可能な項目が限られていた。せいぜい在・不在、通過・滞在、明るさを判定する機能を備えるに過ぎず、推定人数や活動量などの、空調用途のセンシングはできなかった。特に、歩行・滞留を検知することができなかったので、きめ細かな制御を実現するためには同じゾーンに複数のセンサを設置する必要があり、システムコストや設置工数などが大きくなりがちであった。
これに対し第1の実施形態では、画像データから抽出された動き特徴量に基づいて歩行・滞留という新たなセンシング項目を判定できるようにしたので、ビル全体での複合的な用途にも適用可能な画像センサを提供できる。つまり、画像センサを照明制御だけでなく、空調制御の用途にも活用したいというニーズに応えることができる。
また、既存の画像センサには、例えば「連続的に取得された画像間の差分画像」を使用するものがあった。この方式では人の移動を伴わない画像変化が発生するので誤判定の可能性がある。これに対し第1の実施形態では、動き特徴量を用いていることから、画像フレーム間の単純な差分情報を用いる従来方式に比べて誤判定の可能性を低減することができる。
これらのことから第1の実施形態によれば、歩行・滞留を推定でき、センシング項目を増やして可用性を高めた画像センサ、センシング方法、制御システム及びプログラムを提供することが可能になる。
[第2の実施形態]
次に、第2の実施形態について説明する。図中、第1の実施形態と共通の要素については同じ符号を付して示す。
図10は、第2の実施形態に係る画像センサにおけるデータの流れの一例を示す図である。図10において、カメラ部31で取得された画像データ32aは、メモリ32に一時的に記憶されたのち、プロセッサ33の動き抽出部33aに送られる。動き抽出部33aは、画像データ32aを画像処理して、動き特徴量を抽出する。抽出された動き特徴量は、画像処理部33bに渡される。
画像処理部33bは、在・不在、推定人数(人数)、活動量、推定照度(照度)、および歩行・滞留の5種類の項目を画像データ32aからセンシングする。これらのセンシング項目のセンシング結果は情報連携部33cに渡される。情報連携部33cは各項目のセンシング結果を連携させ、或る1つの項目のセンシングに係わる情報を、他の少なくとも1つのセンシング項目のセンシングに反映させる。
例えば、在・不在のセンシング結果を、人数、活動量、照度、および歩行・滞留の少なくともいずれか1つのセンシングに反映させることができる。各項目の連携により得られたセンシング結果は通信部34に渡され、制御装置4(図3)、ビル監視装置5、ノートパソコン9および他の画像センサ3等と共有されることができる。
図11は、第2の実施形態に係る画像センサ3における処理手順の一例を示すフローチャートである。情報連携部33cは、ステップS3~ステップS7で得られた各項目のセンシングデータを連携させる(ステップS20)。例えば、在・不在の判定結果が“不在”であれば、推定人数を0人、活動量を無とする。さらに、推定照度を固定値とし、歩行・滞在については前状態を維持する。
また、推定人数が0人であれば在・不在の判定結果を不在とし、推定人数が1人以上であれば当該判定結果を在とする。また、活動量が小であれば、歩行・滞留については滞留と判定でき、活動量が中以上なら歩行と判定できる。さらに、人数推定で使用された位置情報から、エリアごとの在・不在を判定することができる。
このように第2の実施形態では、複数のセンシング項目のセンシング結果を単独で結論付けるのではなく、情報連携部33cにより、他のセンシング項目の結果に反映させるようにした。これにより状態の推定の精度を向上させることが可能になる。
[第3の実施形態]
第3の実施形態では、マスク設定部33dによるマスク領域の設定について説明する。
図12は、魚眼レンズ31aに捕えられた対象領域の画像を示す。マスク領域を設定することにより、図13に示されるように視野の一部が処理対象から除外され、窓からの余計な明かり等が検知されないように設定することができる。
図14に模式的に示されるように、画像の端を処理対象外とするように設定されたマスクを“マスクA”とし、図15のように画像全体が処理対象、つまりマスクの無い設定を“マスクB”とする。マスク設定部33dは、これら複数の種類にわたるマスク領域を、歩行・滞留、在・不在、人数、活動量、照度の各センシング項目ごとに設定する。項目ごとのマスキングの設定は、例えば図3のノートパソコン9から与えることができ、図4のマスク設定データ32cに記憶される。画像処理部33bは、センシング項目ごとに設定された処理対象領域の画像データを画像処理する。
図16に示されるように、例えば、在・不在、人数、照度のセンシングにおいてはマスクAを使用する。このように照明制御エリアなどに依存する項目についてはエリアに合わせてマスクすることで誤検知を抑制する。例えば人物の像の足だけが検知されることになるが、在・不在、人数、照度のセンシングにおいては問題ない。
一方、活動量、歩行・滞留のセンシングにおいてはマスクBを使用する。このように処理対象範囲の位置に依存しない項目については、マスクを無しとするか、または、処理範囲が広くなるようにマスクする。このようにすることで、人物の全身の動きや、処理対象領域外からの移動軌跡などを用いた画像処理を実施できるようにし、処理精度の向上を図れる。
以上のように第3の実施形態では、マスク領域をセンシング項目ごとに個別に設定できるようにした。既存の技術ではこのような設定を行うことができず、全てのセンシング項目で同じマスク設定を使わざるを得なかったので精度の劣化や処理リソースの圧迫などがもたらされていた。これに対し第3の実施形態では、形状、サイズ、設定領域などを最適化したマスクをセンシング項目ごとに選択することができ、精度の向上や処理リソースの効率化の促進などの効果を得ることができる。
なお、この発明は上記実施の形態に限定されるものではない。例えば、図9に示されるようなエリアをさらに複数に分割したブロックごとに、複数のセンシング項目をセンシングし、各ブロックごとのセンシング結果を統合してエリアごとのセンシング結果を得るようにしても良い。
図17は、ブロックに分割された対象領域を模式的に示す図である。複数のブロックで人物の一人分の広さをカバーできる程度に、ブロックのサイズを設定すると良い。図17においては、歩行と判定された3つのブロックがあり、滞留と判定された4つのブロックがある。画像処理部33bは、例えば多数決によりブロックごとのセンシング結果を統合し、画像フレーム全体でのセンシング結果を得る。多数決によれば、滞留ブロックの数が多いので、図17の状態は“滞留”と判定される。このほか、平均や最小、最大や重み付け和などの手法によりセンシング結果を統合することができる。
また、背景差分/フレーム間差分/人物認識などを用いて人物領域を抽出し、人物領域から個人を検知して追跡し、移動軌跡から歩行・滞留を判定するようにしてもよい。エリア分割がある場合は、エリアごとに存在する個人の移動軌跡を統合して、エリアごとに歩行・滞留を判定することが可能である。
ようにする。
本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…照明機器、2…空調機器、3…画像センサ、4…制御装置、5…ビル監視装置、6…ハブ、7-1…ゲートウェイ、7-2…ゲートウェイ、8…無線アクセスポイント、9…ノートパソコン、11…表示装置、14…請求、15…プロセッサ、30…レジスタ、30a…カメラ情報、31…カメラ部、31a…魚眼レンズ、31b…絞り機構、31c…イメージセンサ、32…メモリ、32a…画像データ、32b…プログラム、32c…マスク設定データ、32d…辞書データ、33…プロセッサ、33a…動き抽出部、33b…画像処理部、33c…情報連携部、33d…マスク設定部、34…通信部、35…内部バス、40…制御装置、50…ビル監視装置、100…ビル、200…クラウド、300…サーバ、400…データベース、500…ビル内ネットワーク、600…通信ネットワーク。

Claims (18)

  1. 対象空間を撮像して画像データを取得する撮像部と、
    前記撮像部の撮像範囲を画像処理の対象領域と非対象領域とに区分する領域設定部と、
    前記対象領域の画像データを画像処理して前記対象空間における人物の歩行・滞留、在・不在、人数、活動量、および照度を含むセンシング項目のうち複数のセンシング項目をセンシングする画像処理部とを具備し、
    前記領域設定部は、前記対象領域と前記非対象領域との区分を前記センシング項目ごとに設定し、
    前記画像処理部は、前記複数のセンシング項目ごとに設定された対象領域の画像データを画像処理する、画像センサ。
  2. さらに、第1の前記センシング項目のセンシングに係わる情報を第2の前記センシング項目のセンシングに反映させる情報連携部を具備する、請求項1に記載の画像センサ。
  3. 前記情報連携部は、前記在・不在のセンシング結果を、前記歩行・滞留、前記人数、前記活動量、および前記照度の少なくともいずれか1つのセンシングに反映させる、請求項2に記載の画像センサ。
  4. 前記画像処理部は、第1の前記センシング項目のセンシング結果に基づいて、第2の前記センシング項目のセンシングに係わる判定ロジックを切り替える、請求項1に記載の画像センサ。
  5. 前記画像処理部は、前記在・不在のセンシング結果に基づいて、前記歩行・滞留、前記人数、前記活動量、および前記照度の少なくともいずれか1つのセンシングに係わる判定ロジックを切り替える、請求項4に記載の画像センサ。
  6. 前記画像データから前記対象空間における動き特徴量を抽出する抽出部をさらに具備し、
    前記画像処理部は、前記動き特徴量に基づいて前記歩行・滞留をセンシングする、請求項1に記載の画像センサ。
  7. 前記抽出部は、前記画像データから前記対象空間における動き領域を抽出し、
    前記画像処理部は、前記動き領域に対して前記歩行・滞留を判定する、請求項6に記載の画像センサ。
  8. 前記抽出部は、前記対象空間を分割した複数のエリアごとに前記動き領域を抽出し、
    前記画像処理部は、前記エリアごとの前記動き領域に対して前記歩行・滞留を判定する、請求項7に記載の画像センサ。
  9. 前記画像処理部は、前記対象空間を分割した複数のエリアごとに前記複数のセンシング項目をセンシングする、請求項1に記載の画像センサ。
  10. 前記画像処理部は、前記エリアをさらに複数に分割したブロックごとに前記複数のセンシング項目をセンシングし、当該ブロックごとのセンシング結果を統合して前記エリアごとのセンシング結果を得る、請求項9に記載の画像センサ。
  11. 前記画像処理部は、前記対象空間における個人を検出し、当該個人の検出の結果を前記在・不在、前記人数、前記活動量、または前記歩行・滞留のセンシング結果に反映させる、請求項1に記載の画像センサ。
  12. 前記画像処理部は、前記対象空間において直前に滞在と判定されたエリアにおいて、前記歩行・滞留を前記滞在とセンシングする、請求項1に記載の画像センサ。
  13. 前記画像処理部は、前記対象空間において直前に滞在と判定されたエリアにおいて不在が検出された場合に、前記歩行・滞留を通過とセンシングする、請求項12に記載の画像センサ。
  14. 前記歩行・滞留のセンシング結果に基づいて、前記対象空間における照明の点灯保持時間を制御する制御部をさらに具備する、請求項1に記載の画像センサ。
  15. 前記センシングの結果を通信ネットワークに送出する通信部をさらに具備する、請求項1乃至14のいずれか1項に記載の画像センサ。
  16. 対象空間を撮像部で撮像して画像データを取得するコンピュータにより実行されるセンシング方法であって、
    前記コンピュータが、前記撮像部の撮像範囲を画像処理の対象領域と非対象領域とに区分する過程と、
    前記コンピュータが、前記対象領域の画像データを画像処理して前記対象空間における人物の歩行・滞留、在・不在、人数、活動量、および照度を含むセンシング項目のうち複数のセンシング項目をセンシングする過程と、
    前記コンピュータが、前記対象領域と前記非対象領域との区分を前記センシング項目ごとに設定する過程と、
    前記コンピュータが、前記複数のセンシング項目ごとに設定された対象領域の画像データを画像処理する過程とを具備する、センシング方法
  17. 対象空間を撮像して画像データを取得する撮像部を具備する画像センサのコンピュータに、
    前記撮像部の撮像範囲を画像処理の対象領域と非対象領域とに区分する過程と、
    前記対象領域の画像データを画像処理して前記対象空間における人物の歩行・滞留、在・不在、人数、活動量、および照度を含むセンシング項目のうち複数のセンシング項目をセンシングする過程と、
    前記対象領域と前記非対象領域との区分を前記センシング項目ごとに設定する過程と、
    前記複数のセンシング項目ごとに設定された対象領域の画像データを画像処理する過程とを実行させる、プログラム。
  18. 対象空間を撮像する請求項1乃至15のいずれか1項に記載の画像センサと、
    前記画像センサによる前記対象空間におけるセンシングの結果に基づいて、前記対象空間に設けられた機器を制御する制御装置とを具備する、制御システム。
JP2017212106A 2017-11-01 2017-11-01 画像センサ、センシング方法、制御システム及びプログラム Active JP7005285B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017212106A JP7005285B2 (ja) 2017-11-01 2017-11-01 画像センサ、センシング方法、制御システム及びプログラム
PCT/JP2018/038170 WO2019087742A1 (ja) 2017-11-01 2018-10-12 画像センサ、センシング方法、制御システム及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017212106A JP7005285B2 (ja) 2017-11-01 2017-11-01 画像センサ、センシング方法、制御システム及びプログラム

Publications (2)

Publication Number Publication Date
JP2019087787A JP2019087787A (ja) 2019-06-06
JP7005285B2 true JP7005285B2 (ja) 2022-01-21

Family

ID=66333476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017212106A Active JP7005285B2 (ja) 2017-11-01 2017-11-01 画像センサ、センシング方法、制御システム及びプログラム

Country Status (2)

Country Link
JP (1) JP7005285B2 (ja)
WO (1) WO2019087742A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020240851A1 (ja) * 2019-05-31 2021-09-13 ニューラルポケット株式会社 情報処理システム、情報処理装置、サーバ装置、プログラム、又は方法
JP2021010092A (ja) * 2019-06-28 2021-01-28 パナソニックIpマネジメント株式会社 画像センサ、画像センサシステム、画像センサの出力方法、及びプログラム
JP7419095B2 (ja) * 2020-02-17 2024-01-22 株式会社東芝 画像センサ、計算装置、および画像センサシステム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015043189A (ja) 2013-08-26 2015-03-05 株式会社東芝 ビル設備制御システム
JP2015184233A (ja) 2014-03-26 2015-10-22 株式会社メガチップス エリア状態推定装置、エリア状態推定方法、プログラムおよび環境制御システム
JP2016171526A (ja) 2015-03-13 2016-09-23 株式会社東芝 画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5594955B2 (ja) * 2008-12-11 2014-09-24 パナソニック株式会社 照明システム
JP2010272958A (ja) * 2009-05-19 2010-12-02 Duse Technologies Co Ltd 監視装置、監視システム、および監視プログラム
SG185350A1 (en) * 2011-05-13 2012-12-28 Toshiba Kk Energy management system
JP5726792B2 (ja) * 2012-03-12 2015-06-03 株式会社東芝 情報処理装置、画像センサ装置及びプログラム
JP6459124B2 (ja) * 2014-08-21 2019-01-30 パナソニックIpマネジメント株式会社 検知装置、検知システム、およびプログラム
JP6495691B2 (ja) * 2015-03-11 2019-04-03 株式会社東芝 動体検出装置、動体検出方法及びコンピュータプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015043189A (ja) 2013-08-26 2015-03-05 株式会社東芝 ビル設備制御システム
JP2015184233A (ja) 2014-03-26 2015-10-22 株式会社メガチップス エリア状態推定装置、エリア状態推定方法、プログラムおよび環境制御システム
JP2016171526A (ja) 2015-03-13 2016-09-23 株式会社東芝 画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラム

Also Published As

Publication number Publication date
JP2019087787A (ja) 2019-06-06
WO2019087742A1 (ja) 2019-05-09

Similar Documents

Publication Publication Date Title
JP7005285B2 (ja) 画像センサ、センシング方法、制御システム及びプログラム
US11605231B2 (en) Low power and privacy preserving sensor platform for occupancy detection
EP2362351A1 (en) Image processing apparatus, image processing method, and air conditioning control apparatus
US20140211985A1 (en) Image-Based Occupancy Sensor
JP6270433B2 (ja) 情報処理装置、情報処理方法、情報処理システム
JP7272024B2 (ja) 物体追跡装置、監視システムおよび物体追跡方法
JP2011165008A (ja) 画像認識装置および方法
JP2016171526A (ja) 画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラム
EP3529788B1 (en) Presence detection system and method
JP6495691B2 (ja) 動体検出装置、動体検出方法及びコンピュータプログラム
JP7002912B2 (ja) 画像センサ、人物検知方法、プログラムおよび制御システム
JP7419095B2 (ja) 画像センサ、計算装置、および画像センサシステム
Jeyabharathi et al. Efficient background subtraction for thermal images using reflectional symmetry pattern (RSP)
JP7286747B2 (ja) 画像センサ、動体検知方法、プログラムおよび制御システム
JP2017123274A (ja) 照明制御システム、照明制御方法、照明制御装置及びコンピュータプログラム
US20210343029A1 (en) Image processing system
JP7237713B2 (ja) センサシステム、画像センサ、およびセンシング方法
JP2008234619A (ja) 顔認証装置および顔認証方法
JP7254570B2 (ja) 画像センサシステム、計算装置、センシング方法、およびプログラム
JP2022020297A (ja) 画像センサ、センシング方法、およびプログラム
JP6266088B2 (ja) 人物検出装置および人物検出方法
JP6124739B2 (ja) 画像センサ
JP6767788B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP6991922B2 (ja) 画像センサ、識別方法、制御システムおよびプログラム
WO2019138537A1 (ja) 情報処理装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220105

R150 Certificate of patent or registration of utility model

Ref document number: 7005285

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150