JP4218368B2 - Human detection method and human detection device - Google Patents

Human detection method and human detection device Download PDF

Info

Publication number
JP4218368B2
JP4218368B2 JP2003048311A JP2003048311A JP4218368B2 JP 4218368 B2 JP4218368 B2 JP 4218368B2 JP 2003048311 A JP2003048311 A JP 2003048311A JP 2003048311 A JP2003048311 A JP 2003048311A JP 4218368 B2 JP4218368 B2 JP 4218368B2
Authority
JP
Japan
Prior art keywords
human
pixel
area
state
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003048311A
Other languages
Japanese (ja)
Other versions
JP2004258927A (en
Inventor
裕之 藤井
智治 中原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Corp
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Works Ltd filed Critical Panasonic Corp
Priority to JP2003048311A priority Critical patent/JP4218368B2/en
Publication of JP2004258927A publication Critical patent/JP2004258927A/en
Application granted granted Critical
Publication of JP4218368B2 publication Critical patent/JP4218368B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、観測画像を画像処理することにより、屋内における人の存在、人の位置、人数を検出する方法及び装置に関する。
【0002】
【従来の技術】
従来、人の作業や行動の観測や環境の自動制御、不審物侵入監視などの目的で観測領域内の人の移動や人数分布を検出することが行われている。人検出の主な従来技術として、焦電素子センサを使うものと、画像処理を使うものがある。焦電素子センサを使うものでは、焦電素子センサを用いて人体の放出する赤外線を検出することにより、観測領域の人の有無が検知されている。人の存在位置を検出する場合には、単一のセンサのみではどの位置に人が存在するか判断できないため、複数のセンサを用いて計測しなければならず、センサの設置に手間がかかる問題がある。また、この方法は観測空間における温度変化を検知して人を検出しているため、人が静止すると検出できなくなってしまう。
【0003】
画像を使って人を検知するものとしては、背景差分法を使うものがある。背景差分法は、予め記憶した背景画像と入力画像間で差分を取り、変化のある部分を検出する手法である。この方法は、背景画像が変化しなければ、変化部分を精度良く検出できるが、実際の使用環境においては、環境光が変化したり、物が観測視野内に持ち込まれ、又は持ち出されたりすると、誤検出が発生する。これらの環境変化に対応するために、背景画像の自動更新が一般的に行われている。
【0004】
背景画像の自動更新を行うものとして、例えば、室内監視装置として監視領域内の人の数及び分布等を検出するために、予め人物監視領域を指定して、監視領域内を撮像した画像の背景差分により人を検出することとし、人かどうかの判断は監視領域内の差分絶対値の和より行い、背景画像の更新は、背景差分絶対値の変化履歴が所定量以上になった時に行うものが知られている(例えば、特許文献1参照)。
【0005】
また、背景更新を行うと共に、ドアのように特定の位置で繰り返し動作を行うもの(移動可能背景)を除くことにより、動体の検出の精度を向上させる移動体識別装置が知られている(例えば、特許文献2参照)。この装置は、動体の検出を背景差分により行い、差分値が連続してしきい値を越えない場合、その画像部分を動体とする。しきい値以上の差分値が一定期間連続するとき、背景が変化したとして背景画像更新が行われる。また、検出された動体形状が繰り返し出現する場合、この動体を移動可能背景であると判断することで、これを動体と区別している。
【0006】
また、周囲の状況が変わると自動的に背景を更新して、エレベータ乗場の待ち客やエレベータ内の正確な人数検出を行う人検出装置、及びこれを用いたエレベータ制御システムが知られている(例えば、特許文献3参照)。この装置では、背景差分により動体の検出が行われる。差分値がしきい値を超える面積を標準人面積で割るか、動体として検出された画素の塊の数を数えて人数を求めている。背景更新タイミングの異なる二つの背景画像を持ち、現画像から見て古い方の背景を参照しながら背景差分に使う背景を更新する背景画像更新を行うので、一旦背景に取り込まれてしまった人が移動して居なくなった部分がゴーストとして検出されるということを防ぐことができる。また、面積による検出と塊の計数による検出数を比較して、人検出2値化のしきい値を自動調節することが行われている。
【0007】
また、上記例とは別に、静止した人が背景に取り込まれてしまう問題に対処するため、画像を使う他の検出方法として、画素ごとに時系列方向の輝度変化を分析して画素の状態を検出し、かつ、検出された画素の状態遷移の制約を使うものが知られている(例えば、非特許文献1参照)。
【0008】
【特許文献1】
特開平11−311682号公報
【特許文献2】
特開平4−111079号公報
【特許文献3】
特開平10−312448号公報
【非特許文献1】
第7回画像センシングシンポジウム講演論文集(2001年)、C−20、pp369−374、「複数物体の重なりを理解するレイヤー型検出法」、藤吉弘亘、金出武雄著
【0009】
【発明が解決しようとする課題】
しかしながら、上述した特許文献1に示されるような装置では、人が存在する場所が予め分からなければ監視位置を設定することができない。また、座って作業する人が居る場合、例えば、パソコン作業者の場合は、指先ぐらいしか動かないので、体の大半の部分が背景に取り込まれてしまい、領域内の差分積分値が小さくなり、人を検出できなくなると予想される。
【0010】
また、上述した特許文献2に示されるような装置では、背景画像と異なる状態が一定時間以上連続すると背景を更新するようにしているので、人が椅子に座ったり、立ち止まったりして静止状態となると、人が背景に取り込まれてしまい、移動する人しか検出できない問題がある。また、上述した特許文献3に示されるような装置では、静止した人が背景に取りこまれて検出できないという問題がある。
【0011】
また、上述した非特許文献1に示されるような検出方法では、検出された人が動いているのか静止しているのかが識別できるようになるが、人と背景との識別は背景差分法と同じく輝度値そのものの差で識別しているため、背景と良く似た輝度値の人がくると背景と判定され、人が検出されないという問題がある。
【0012】
本発明は、上記課題を解消するものであって、画像処理を用い、環境光の変化する状況下であっても、動いている人だけではなく静止した人の検知、その位置、人数を計測できる人検出方法及び人検出装置を提供することを目的とする。
【0013】
【課題を解決するための手段及び発明の効果】
上記課題を達成するために、請求項1の発明は、撮像画像を画像処理することにより人を検出する人検出方法であって、所定エリア内の人の動きを時系列的に順次撮像する撮像過程と、前記撮像過程で撮像され、デジタル化された時系列的に連続するデジタル画像を記憶するデジタル画像記憶過程と、前記記憶された時系列のデジタル画像より、所定画像エリア内に位置する各画素の輝度値を時系列的に読み出し、所定時間毎の各画素の輝度の時間変動分散値を計算する画素分析過程と、前記分散値を上記デジタル画像の画素に対応させて時系列的に記憶する画素分析結果記憶過程と、前記分散値の時系列の変動状態を判別して、その分散値を計算した画素の状態を少なくとも「動状態」「人候補」「背景」の3状態に識別する画素状態識別過程と、画素状態識別結果を上記デジタル画像の画素に対応させて時系列的に記憶する画素状態識別結果記憶過程と、前記識別した「人候補」画素と、これに近接又は連続する「動状態」画素を合わせて人候補領域を作成する人候補領域作成過程と、人候補領域作成結果を上記デジタル画像の画素に対応させて記憶する人候補領域作成結果記憶過程と、前記人候補領域の特徴を判別し人領域を検出する人領域検出過程と、検出された人の位置又は人数などの人検出データを出力する人検出データ出力過程と、を備えるものである。
【0014】
上記人検出方法においては、所定エリア内の人の動きを時系列的に順次撮像した時系列的に連続するデジタル画像より、所定画像エリア内に位置する各画素の輝度値を読み出し、所定時間毎の各画素の輝度の時間的変動分散値を計算し、デジタル画像の画素に対応させて時系列的に記憶した分散値の時系列の変動状態を判別して、その分散値を計算した画素の状態を少なくとも「動状態」「人候補」「背景」の3状態に識別し、識別した「人候補」画素と、これに近接又は連続する「動状態」画素を合わせて人候補領域を作成し、人候補領域の特徴を判別して人領域を検出するので、動いている人は「動状態」、静止している人は「人候補」、静止している物は「背景」と判定することができ、動いている人だけでなく、静止している人も含めて背景から人を分別して検出できる。また、従来の人検出方法が、背景画像又は前画像の輝度と現画像の輝度との差より人の有無を判定するものであるため背景画像と現画像で人の部分の輝度が背景と似たような輝度を持つため検出できなかった部分や、人が静止すると前画像と現画像で輝度の差が無くなり検出できなかった部分についても、本人検出方法では、人の部分と物体の部分では輝度の時間的変動を表す分散値が異なることを利用して判定するので、精度良く人を検出することができる。また、時系列的に記憶した分散値の時系列の変動状態を判別して人を検知するので、環境光の変化する状況下においても精度良く人を検知することができる。
【0015】
請求項2の発明は、請求項1記載の人検出方法において、前記人領域検出過程は、人候補領域の形状又は面積が予め定めた範囲内にある時、人候補領域が人領域であると判定するものである。
【0016】
上記人検出方法においては、人候補領域の形状又は面積を用いて人候補領域を人領域であるかどうかの判定するので、人領域検出過程の処理を簡単にすることができる。
【0017】
請求項3の発明は、請求項1記載の人検出方法において、前記人領域検出過程は、人候補領域に含まれる「動状態」画素の個数と、「人候補」画素の個数の比を求め、この比を用いて人候補領域が静止した人領域であるかどうかを判定するものである。
【0018】
上記人検出方法においては、人と判定した領域が動いているのか静止しているのかを識別することにより、滞在時間が長い静止した人と、滞在時間が短い動く人を区別して認識できるため、滞在時間の長い静止した人に合わせた処理、例えば、空調制御を行うことができる。
【0019】
請求項4の発明は、請求項1記載の人検出方法において、前記人領域検出過程は、人候補領域に含まれる「動状態」画素を合わせた部分領域の重心位置が、予め定めた一定期間予め定めた範囲内に位置する時、該人候補領域は人領域ではないと判定するものである。
【0020】
上記人検出方法においては、人候補領域に含まれる「動状態」画素を合わせた部分領域の重心位置が、予め定めた一定期間予め定めた範囲内に位置する時、該人候補領域は人領域ではないと判定するので、撮像された画像上の特定の位置で輝度が変化する、例えばパソコンのディスプレイやテレビ画面のちらつきのある領域を人領域から除外でき、これらを間違って人として検出することを無くすことができる。
【0021】
請求項5の発明は、請求項1記載の人検出方法において、前記人領域検出過程は、前記人候補領域に外接する外接四角形の位置及び形状が予め定めた一定期間変化せず、かつ、該人候補領域が該外接四角形に接する点の位置が変化しないとき、該人候補領域は人領域ではないと判定するものである。
【0022】
上記人検出方法においては、人候補領域に外接する外接四角形の位置及び形状が予め定めた一定期間変化せず、かつ、該人候補領域が該外接四角形に接する点の位置が変化しないとき、該人候補領域は人領域ではないと判定するので、撮像された画像上の特定の位置で輝度変化を起こす、例えばパソコンのディスプレイやテレビ画面のちらつきのある領域を人領域から除外でき、これらを間違って人として検出することを無くすことができる。
【0023】
請求項6の発明は、請求項1記載の人検出方法において、前記検出結果出力過程は、撮像された画像に検出した人領域と人検出データを重ね合わせて表示するものである。
【0024】
上記人検出方法においては、撮像された画像に検出した人領域と人検出データを重ね合わせて表示するので、1つの出力画面に重ねて表示された人検出データを直感的に認識でき、所定エリア内における人の動向の把握が容易となる。
【0025】
請求項7の発明は、撮像画像を画像処理することにより人を検出する人検出装置であって、所定エリア内の人の動きを時系列的に順次撮像する撮像手段と、前記撮像手段で撮像され、デジタル化された時系列的に連続するデジタル画像を記憶するデジタル画像記憶手段と、前記記憶された時系列のデジタル画像より、所定画像エリア内に位置する各画素の輝度値を読み出し、所定時間毎の各画素の輝度の時間変動分散値を計算する画素分析手段と、前記分散値を上記デジタル画像の画素に対応させて時系列的に記憶する画素分析結果記憶手段と、前記分散値の時系列の変動状態を判別して、その分散値を計算した画素の状態を少なくとも「動状態」「人候補」「背景」の3状態に識別する画素状態識別手段と、画素状態識別結果を上記デジタル画像の画素に対応させて時系列的に記憶する画素状態識別結果記憶手段と、前記識別した「人候補」画素と、これに近接又は連続する「動状態」画素を合わせて人候補領域を作成する人候補領域作成手段と、人候補領域作成結果を上記デジタル画像の画素に対応させて記憶する人候補領域作成結果記憶手段と、前記人候補領域の特徴を判別し人領域を検出する人領域検出手段と、検出された人の位置又は人数などの人検出データを出力する人検出データ出力手段と、を備えるものである。
【0026】
上記構成においては、所定エリア内の人の動きを時系列的に順次撮像した時系列的に連続するデジタル画像より、所定画像エリア内に位置する各画素の輝度データを読み出し、所定時間毎の各画素の輝度の時間的変動分散値を計算し、デジタル画像の画素に対応させて時系列的に記憶した分散値の時系列の変動状態を判別して、その分散値を計算した画素の状態を少なくとも「動状態」「人候補」「背景」の3状態に識別し、識別した「人候補」画素と、これに近接又は連続する「動状態」画素を合わせて人候補領域を作成し、人候補領域の特徴を判別して人領域を検出するので、動いている人は「動状態」、静止している人は「人候補」、静止している物は「背景」と判定することができ、動いている人だけでなく、静止している人をも背景から分別して検出できる。また、従来の人検出方法が、背景画像又は前画像の輝度と現画像の輝度との差より人の有無を判定するものであるため背景画像と現画像で人の部分の輝度が背景と似たような輝度を持つため検出できなかった部分や、人が静止すると前画像と現画像で輝度の差が無くなり検出できなかった部分も、本人検出装置では、人の部分と物体の部分では輝度の時間的変動を表す分散値が異なることを利用して判定するので、精度良く人を検出することができる。
【0027】
請求項8の発明は、請求項7記載の人検出装置において、前記人検出データを用いて照明及び/又は空調などの環境調節機器を制御する環境制御手段をさらに備えたものである。
【0028】
上記構成においては、人検出データを用いて照明及び/又は空調を制御するので、部屋に居る人数、人の位置に合わせて照明・空調を制御することができ、人が居ないのに機器を動作させる無駄なエネルギー消費を無くし、また、室内の執務者の快適さを向上させることができる。また、本発明によると、制御対象エリアに1台の撮像用のTVカメラを設置することで、制御用の人検知データを得ることができる。
【0029】
【発明の実施の形態】
以下、本発明の一実施形態に係る人検出方法及び人検出装置について、図面を参照して説明する。図1は本発明に係る人検出装置の構成を示し、図2は、人検出方法の処理フローを示す。人検出装置1は、室内2を俯瞰するように設置したTVカメラ3から時系列的に順次撮像して得られる連続画像を用い、室内2に居る人20を検出し、その人数・位置を出力する。人検出方法の各処理は、撮像過程S101がTVカメラ3において、デジタル画像記憶過程S102がA/D変換部4と記憶部5において、画素分析過程S103、画素状態識別過程S105、人候補領域作成過程S107、人領域検出過程S109が演算部6において、画素分析結果記憶過程S104、画素状態識別結果記憶過程S106、人候補領域作成結果記憶過程S108が記憶部5において、また、人検出データ出力過程S110が通信部9とディスプレイ8において行われる。
【0030】
撮像画像を画像処理することにより人を検出する人検出方法の全体の流れを説明する。撮像過程S101では、所定エリア内(室内2)の人の動きが時系列的に順次撮像され、デジタル画像記憶過程S102では、前記撮像過程で撮像され、デジタル化された時系列的に連続するデジタル画像が記憶される。画素分析過程S103では、前記記憶された時系列のデジタル画像より、所定画像エリア内に位置する各画素の輝度値が読み出され、所定時間毎の各画素の輝度の時間変動についての分散値が計算され、画素分析結果記憶過程S104では、前記分散値が上記デジタル画像の各画素に対応して時系列的に記憶される。
【0031】
画素状態識別過程S105では、前記分散値の時系列の変動状態が判別され、その分散値を計算した画素の状態が「動状態」「経過状態」「人候補」「背景」の4状態に識別され、画素状態識別結果記憶過程S106では、画素状態識別結果が上記デジタル画像の画素に対応して時系列的に記憶される。なお、後述するように、「経過状態」は「動状態」の一部、又は「人候補」の一部と捉えてもよく、この場合、画素の状態が、画素状態識別過程において「動状態」「人候補」「背景」の3状態に識別される。人候補領域作成過程S107では、前記識別した「人候補」画素と、これに近接又は連続する「動状態」画素及び「経過状態」画素を合わせた人候補領域が作成され、人候補領域作成結果記憶過程S108では、人候補領域作成結果が上記デジタル画像の画素に対応して記憶される。人領域検出過程S109では、前記人候補領域の特徴を判別し人領域が検出され、人検出データ出力過程S110では、検出された人の位置又は人数などの人検出データが出力される。
【0032】
本発明の特徴は、撮像された連続する画像の注目画素について輝度の時間変化を時系列的に得て、これをもとに一定時間間隔における輝度の分散値を計算し、その輝度の分散値の時間変化から注目画素の状態を少なくとも「動状態」、「人候補」、「背景」の3状態に分別するところにある。動いている人は「動状態」、静止している人は「人候補」、静止している物は「背景」であると判定される。従来行われている人検出方法は、単に現画像と背景画像(又は前画像)とにおける輝度の差を用いて人の有無を判断するものであるため、現画像と背景画像とにおいて人の部分の輝度が背景と似たような輝度を持つ場合には背景から人を区別して検出できない。また、人が静止する場合には現画像と前画像との差が無くなり人を検出することができない。本発明によると、静止している人と、静止している物とを分別して判定でき、動いている人だけでなく静止している人も背景から区別して検出できる。
【0033】
観測対象である人と、人以外の物体の移動、停止状態について説明する。図3は、画像変化の例を示す。図3(a)に示すように、画像21の中で左方から人20が移動してきて、画像22における中央で一旦止まり、その後、画像23のように右方に立ち去る場合、及び図3(b)に示すように、物体25が移動されて画像27における中央に一旦置かれ、その後、持ち去られる場合、を比較する。停止状態において、人と物体の状態の差が現れる。通常、放置された物体は静止状態となるが、人は停止状態においても完全に静止することはないという違いがある。
【0034】
輝度変化について説明する。図4(a)は、上記画像中に×印で示された注目画素24,29のような特定画素の輝度の測定例を示し、図4(b)は、輝度分散の様子を示す。本発明において、分散値F及び分散値Bという2種類の分散値が定義されて用いられる。図4(a)に示す輝度Yの変化曲線30について過去の画素分析時点t(−n+1)、及びそこから未来方向の最新画像撮像時点t(0)までのn枚の画像を含むf区間31においてn点の輝度値を使って分散値Fが計算される。また、画素分析時点t(−n+1)、及びそこから過去方向の画素分析時点t(−m−n+2)までのm枚の画像を含むb区間32においてm点の輝度値を使って分散値Bが計算される。輝度値の分散の様子(度数分布)は、f区間31,及びb区間32のそれぞれにおいて曲線33、曲線34のようになる。図4(a)に示されたb区間32の例は、人又は物体の移動状態と見なされ、また、f区間31の例は、停止状態と見なされるものである。
【0035】
輝度値の分布から求められる分散値は、分散の様子が定量化できる数値であれば良く、例えば、度数分布を正規分布曲線でフィッティングして求めた標準偏差σや、平均値からの偏差の二乗和の計算式等により求められる。これらのようないずれかの方法で求められた分散値は、分散値35(分散値F),分散値36(分散値B)のようになり、f区間31が停止状態に対応し、b区間32が移動状態に対応する場合、分散値の差により状態が区別できることが分かる。また、分散値Fは、動きの始まりの検出に用いられ、分散値Bは、動きの終了を検出するのに用いられる。
【0036】
状態識別について説明する。図5は、人の移動、停止、移動の場合の輝度と分散値の変化を示し、図6は、物体の移動、停止、移動の場合の輝度と分散値の時間変化を示す。図5(a)には、輝度Yの時間変化曲線40から、一定区間ごとに、例えばf区間31、b区間32から、分散値F、分散値Bを求めて、図5(b)に示す分散値F曲線41、図5(c)に示す分散値B曲線42を得る様子が示されている。
【0037】
このような分散値F曲線41、分散値B曲線42を用いて注目画素の状態を識別するために、分散値に対する3種類のしきい値が定義されて用いられる。これらは、「動状態」検出しきい値TFM、経過状態検出しきい値TBS、及び「背景」検出しきい値TBBである。「動状態」検出しきい値TFMは、人、物体が移動する場合、分散値Fと比較して「動状態」検出に用いられる。「経過状態」検出しきい値TBSは、一旦「動状態」になった後の状態で分散値Bと比較して、「人候補」又は「背景」を検出するのに用いられる。「動状態」が「人候補」又は「背景」と判定されるまでの間は「経過状態」とされ、この状態は「動状態」の一部とみなされる。
【0038】
例えば、図5(b)において、「動状態」検出しきい値TFMが分散値F曲線41の登り斜面(時間微分係数が正の曲線部分)と交わる交点M1以降では、注目画素は「動状態」であるとされる(区間44)。この後、図5(c)において、「経過状態」検出しきい値TBSが分散値B曲線42の下り斜面(時間微分係数が負の曲線部分)と交わる点S1以降では、注目画素は「経過状態」であるとされ(区間45)、その後さらに、分散値Bがしきい値TBS以下、かつしきい値TBB以上の状態が一定時間以上継続する時、注目画素の状態を「人候補」と判定する(区間46)。また、図5(c)におけるしきい値TBSと分散値B曲線42との交点S2の後の、しきい値TBBと分散値B曲線42との交点B1以降のように、分散値Bがしきい値TBS以下となり、さらに一定時間以内にTBB以下になる時、注目画素の状態を「背景」と判定する(区間49)。ここで、「経過状態」を設ける代わりに、分散値がしきい値TBS以下になったときから所定のウエイト時間が経過した後に、分散値がしきい値TBS以上か、しきい値TBSとしきい値TBBの間か、しきい値TBB以下か、によって注目画素の状態を「動状態」、「人候補」、「背景」と判定してもよい。この場合、ウエイト時間中は「動状態」が継続しているとし、分散値がウエイト時間後にしきい値TBS以上であれば「動状態」がさらに継続しているとし、分散値がしきい値TBSとしきい値TBBの間であれば注目画素の状態を「人候補」と判定し、分散値がしきい値TBB以下であれば注目画素の状態を「背景」と判定する。
【0039】
このように、図5(a)に示される「人候補」区間46と「背景」区間49は、分散値B曲線42におけるしきい値TBSとの交点S1,S2以降の挙動により区別することができる。人は、止まっても完全に静止することができずに振らついていることにより、物体の静止状態(又は背景)と、人の静止状態が区別される。
【0040】
物体の場合、図6に示されるように、人の場合と同様に分散値F曲線51との交点M3、M4により「動状態」が検出される(区間54,57)。「経過状態」以降については、人と異なり、物体の場合、図6(c)におけるしきい値TBSと分散値B曲線52との交点S3、S4の後に、しきい値TBBと分散値B曲線52との交点B3,B4があまり時間をおかずに現れ、分散値Bがしきい値TBB以下になるので、注目画素の状態を「背景」と判定することができる(区間56,59)。
【0041】
上述した輝度及び輝度の分散値により定義される画素の取り得る4状態について、その状態間の遷移を説明する。図7は画素の4状態間において、通常取り得る遷移の様子を矢印で示す。背景61,動状態62、経過状態63,及び人候補64の4つの状態は、自己状態から出て自己状態に戻る矢印で示すようにそれぞれ自己状態を維持することができる。また、経過状態63から背景61、又は人候補64となることができるが、逆に背景61、又は人候補64から経過状態になることはない。また、人候補64から動状態62となることができるが、逆に動状態62から人候補64にはならない。また、動状態62が背景61に状態遷移する場合、通常は経過状態63を経て状態遷移するが、経過状態が短時間である場合、分散値のデータ間隔と経過状態持続時間の兼ね合いによって、図に示したような動状態62から背景61の状態に直接遷移することがある。
【0042】
次に、人検知方法における各処理について説明する。まず、デジタル画像記憶過程について、図8のフローチャートを用いて説明する。このフローでは、前述したようにn枚の画像から分散値Fを、また、m枚の画像から分散値Bを求めるための(m+n−1)枚の画像を記憶する(1枚は共通)。まず、画像記憶のための初期処理、及びメモリ確保が行われる(S201〜S203)。次に、撮像過程において撮像素子に投影された映像から順次読み出されて生成されたアナログ映像信号が受け取られ(S204)、この信号がD/A変換されて所定のメモリに記憶される(S205〜S208)。最後に、次の画像入力の準備のために画像メモリエリア番号がインクリメントされる。
【0043】
画素分析過程及び画素分析結果記憶過程について、図9のフローチャートを用いて説明する。このフローでは、記憶された時系列のデジタル画像より、所定画像エリア内に位置する画素の輝度を読み出し、所定時間毎の輝度の分散値F及び分散値Bが計算される。まず、初期処理、及びメモリ確保が行われる(S301、S302)。次に、デジタル画像記憶過程で記憶された(m+n−1)枚の画像のうち、新しい方のn枚から、注目画素における画像の輝度値を読み出して分散値Fを計算する(S303〜S305)。次に、デジタル画像記憶過程で記憶された(m+n−1)枚の画像のうち、古い方のm枚から、注目画素における画像の輝度値を読み出して分散値Bを計算する(S306、S307)。以上の処理が、所定画像エリア内の全ての画素について行われる。
【0044】
画素状態識別過程及び画素状態識別結果記憶過程について、図10のフローチャートを用いて説明する。このフローでは、注目画素について画素状態が4つに分類されて、その結果がメモリに保存される。まず、初期処理、及びメモリ確保が行われる(S401〜S403)。次に、注目画素の位置における、画素分析結果の分散値Fデータ、分散値Bデータ、及び前回処理時の画素状態識別結果データが読み出される(S404)。前回の結果が「背景」の場合(S405でY)、動状態検出しきい値TFMと分散値Fが比較され、TFM<Fの場合、画素状態は動状態とされ(S406でY、S407)、TFM<Fでない場合、画素状態は背景とされる(S406でN、S408)。
【0045】
前回の結果が「人候補」の場合(S409でY)、動状態検出しきい値TFMと分散値Fが比較され、TFM<Fの場合、画素状態は動状態とされ(S410でY、S411)、TFM<Fでない場合、画素状態は人候補とされる(S410でN、S412)。
【0046】
前回の結果が「経過状態」の場合(S413でY)、経過状態検出しきい値TBSと分散値Bが比較され、B≦TBSでない場合、画素状態は動状態とされ(S414でN、S415)、B≦TBSの場合、更に、背景検出しきい値TBBと分散値Bが比較される。この比較において、B≦TBBの場合、画素状態は背景とされる(S416でY、S417)。また、B≦TBBでない場合、時間経過による状態変化をみるために経過状態カウンタがインクリメント(T=T+1)された後、経過状態カウンタTが経過状態回数しきい値TMと比較され、TM<Tの場合、経過状態カウンタTがゼロクリア(T=0)されると共に、画素状態は人候補とされる(S416でN、S418、S419でY、S420,S421)。また、TM<Tではない場合、画素状態は経過状態とされる(S419でN、S422)。
【0047】
前回の結果が「動状態」の場合(S423でY)、経過状態検出しきい値TBSと分散値Bが比較され、B≦TBSでない場合、画素状態は動状態とされ(S424でN、S425)、B≦TBSの場合、更に、背景検出しきい値TBBと分散値Bが比較される。この比較において、B≦TBBでない場合、経過状態カウンタTがゼロクリア(T=0)されると共に、画素状態は経過状態とされる(S426でN、S427、S428)。また、B≦TBBの場合、画素状態は背景とされる(S426でY、S429)。
【0048】
上記の画素状態識別結果は、撮像されたデジタル画像の画素位置に対応させてメモリに保存される(S430)。以上の状態識別処理が、所定画像エリア内の全ての画素について行われる。なお、上記実施形態では、過去のある分析時点より過去方向の期間と、未来方向の期間とを決めて、各期間において求めた2種類の分散値Bと分散値Fを用いて、注目画素の状態を識別しているが、この方法の他に、過去のある分析時点より過去方向の期間のみ、未来方向の期間のみ、又は、両方にまたがる期間のいずれかからなる1種類の期間について求めた1種類の分散値を用いて注目画素の状態を識別するようにしてもよい。上記のように、2種類の分散値を用いた場合は、応答性の良い状態識別ができる効果があり、また、ここに示したような1種類の期間の1種類の分散値を用いた場合は、分散値の記憶容量を少なくして識別できる効果がある。
【0049】
人候補領域作成過程及び人候補領域作成結果記憶過程について、図11のフローチャートを用いて説明する。このフローでは、画素状態を識別した「人候補」画素と、これに近接又は連続する「動状態」画素及び「経過状態」画素を合わせて人候補領域が作成される。まず、初期処理、及びメモリ確保が行われる(S501、S502)。次に、メモリに記憶された画素状態識別結果が読み出され、最初の注目画素アドレスが設定される(S503、S504)。次に、注目画素近傍において別途定められたm1×n1画素範囲、例えば6×4=24近傍について画素状態が検査され、「動状態」D、「経過状態」T、「人候補」Cのいずれかである画素は人候補領域の画素であるとしてラベル付けされる(S505)。以上のラベル付け処理が、所定画像エリア内の全ての画素について行われる(S507,S506でY)。次に、近接又は連続する人候補領域は1つのグループとして1つのラベル付けを行うため、ラベルの整合性のチェック及びラベルの付け直しが行われ、最後に、撮像されたデジタル画像の画素位置に対応させて人候補領域作成結果がメモリに保存される(S508〜S511)。
【0050】
図12は人候補領域作成結果を示す。この図で、各升目は1つの画素を示し、無地の画素71は背景、文字Dの記入された画素72は動状態、文字Tの記入された画素73は経過状態、文字Cの記入された画素74は人候補を表している。また、背景以外の画素の集合からなる領域75,76,77がラベル付けされた人候補領域である。
【0051】
人領域検出過程について、図13のフローチャートを用いて説明する。このフローでは、人候補領域の特徴が判別され、人領域が検出される。人候補領域の特徴として、例えば、領域の面積(画素数)が用いられる。また、他の特徴として、領域の縦・横のサイズなどの領域の形状を用いることもできる。まず、記憶された人候補領域作成結果が読み出され、各領域についてラベル番号順に処理がすすめられる(S601,S602)。ラベル付けされた領域の面積Pが計算され(S603)、この面積Pが最小面積Pmin、及び最大面積Pmaxと比較される(S604)。領域の面積Pが、Pmin<P≦Pmaxを満たすの場合、この領域は人と判定され、その領域の重心が人を代表する画素位置とされる(S604でY、S605,S606)。また、領域の面積Pが、Pmin<P≦Pmaxを満たさない場合、この領域は人ではないと判定される(S607)。これらの処理が、ラベル付けされた全ての領域について行われ、最後に人検出データが保存される(S609)。
【0052】
人検出データ出力過程について、図14のフローチャートを用いて説明する。このフローでは、検出された人の位置又は人数などの人検出データがメモリから読み出され(S11)、ディスプレイ上に出力される(S12)。図15は人検出データ出力例を示す。ディスプレイ画面79上に、検出された人数、検出位置が表示されている。
【0053】
「動状態」と「経過状態」の画素の和と「人候補」画素の和の比を用いる人領域検出過程について、図16のフローチャートを用いて説明する。このフローでは、人候補領域に含まれる「動状態」画素及び「経過状態」画素の和と、「人候補」画素の和の比が求められ、この比を用いて人候補領域が静止した人領域であるかどうかが判定される。まず、記憶された人候補領域作成結果が読み出され、各領域についてラベル番号順に処理がすすめられる(S701,S702)。ラベル付けされた領域中の「動状態」画素と「経過状態」画素の総数Ndtが計算され(S703)、また、領域中の「人候補」画素の総数Ncが計算される(S704)。次に、各総数Ndt、Ncから求めた人候補の構成比Nc/(Ndt+Nc)と所定の静止状態検出しきい値Nsとが比較される(S705)。比較の結果、Ns<Nc/(Ndt+Nc)の場合、この領域は静止した人と判定され、その領域の重心が人を代表する画素位置とされる(S705でY、S706,S707)。また、Ns<Nc/(Ndt+Nc)ではない場合、この領域は静止した人ではないと判定される(S705でN、S708)。これらの処理が、ラベル付けされた全ての領域について行われ、最後に人検出データが保存される(S710)。
【0054】
「動状態」と「経過状態」を合わせた部分領域の重心位置を用いる人領域検出過程について、図17のフローチャートを用いて説明する。このフローによると、人候補領域に含まれる「動状態」画素及び「経過状態」画素を合わせた部分領域の重心位置が、予め定めた一定期間予め定めた範囲内に位置する時、人候補領域は人領域ではないと判定できる。まず、記憶された人候補領域作成結果、及び前回の人検出データが読み出され、各領域についてラベル番号順に処理がすすめられる(S801〜S803)。次に、注目領域中に「動状態」画素または「経過状態」画素が存在する場合、領域中の「動状態」画素と「経過状態」画素の重心が計算される(S804でY、S805)。次に、所定範囲内に前回の人候補領域がない場合(S806でN)、この領域に重心位置カウンタTgを割り当ててTg=1とする(S807)。また、所定範囲内に前回の人候補領域がある場合(S806でY)、この領域に割り当てられた重心位置カウンタTgをインクリメント(Tg=Tg+1)する(S808)。次に、重心回数しきい値TGと重心位置カウンタTgが比較され、TG<Tgの場合、この領域は人でないと判定される(S809でY、S810)。これらの処理が、ラベル付けされた全ての領域について行われ、最後に人検出データが保存される(S812)。
【0055】
上述した方法によると、ある人候補領域について、その領域は人ではないと判定することができる。このようにすることにより、図18に示すように、輝度が時間的に変化するテレビ画面が撮像画像80内に入っても、テレビ画面のちらつきにより変動する画像内での位置はテレビの位置に固定されているため、この領域は人ではないと判定されるので、テレビ画面のちらつきを間違って人として検出することを無くすことができる。
【0056】
人候補領域の外接四角形とその接点を用いる人領域検出過程について、図19のフローチャートを用いて説明する。このフローによると、人候補領域に外接する外接四角形の位置及び形状が予め定めた一定期間変化せず、かつ、人候補領域がその外接四角形に接する点の位置が変化しないとき、その人候補領域は人領域ではないと判定できる。まず、記憶された人候補領域作成結果、及び前回の人候補領域の外接四角形の位置・形状、接点の位置データが読み出され、各領域についてラベル番号順に処理がすすめられる(S901〜S903)。次に、当該ラベル番号の人候補領域の外接四角形の位置・形状、接点の位置が計算される(S904)。次に人領域存否の判定をしようとする所定範囲内に人候補領域があれば(S905でY)、前回の人候補領域の外接四角形の位置・形状、接点の位置と、今回の人候補領域の外接四角形の位置・形状、接点の位置とを比較する(S907)。また、所定範囲内に前回の人候補領域がない場合(S905でN)、及び、外接四角形について前回と今回の差が所定範囲内にない場合(S907でN)、この領域に外接四角形カウンタTqを割り当ててTq=1とする(S906)。また、外接四角形について前回と今回の差が所定範囲内である場合(S907でY)、この領域に割り当てられた外接四角形カウンタTqをインクリメント(Tq=Tq+1)する(S908)。次に、外接四角形回数しきい値TQと外接四角形カウンタTqが比較され、TQ<Tqの場合、この領域は人でないと判定される(S909でY、S910)。これらの処理が、ラベル付けされた全ての領域について行われ、最後に人検出データが保存される(S912)。
【0057】
上述した方法によると、ある人候補領域について、その領域は人ではないと判定することができる。このようにすることにより、図20に示すように、輝度が時間的に変化するテレビ画面83が撮像画像82内に入っても、テレビ画面のちらつきにより変動するテレビ画面83に外接する外接四角形84の位置はテレビの位置に固定されているため、この領域は人ではないと判定されるので、テレビ画面のちらつきを間違って人として検出することを無くすことができる。
【0058】
撮像画像、検出された人領域、人検出データの重ね合わせ表示について、図21のフローチャートを用いて説明する。このフローでは、記憶された人検出データが読み出され(S21)、撮像された画像に検出した人領域と人検出データが重ね合わされて表示される(S22)。図22は、人検出データを重ね合わせて出力した例を示す。このように、ディスプレイ85に、撮像された所定エリアの画像86,各画像に検出エリア内の人87の位置88、人数89を表示することで、人を認識し易くできるので、出力画面を一目見て検出エリア内の人状況を把握することができる。
【0059】
以下において、本発明の他の一実施形態にかかる人検出装置について説明する。図23は人検出装置構成ブロック図を示す。この人検出装置の撮像手段11は、所定エリア内(室内2)の人の動きを時系列的に順次撮像し、デジタル画像記憶手段12は、前記撮像過程で撮像され、デジタル化された時系列的に連続するデジタル画像を記憶する。画素分析手段13は、前記記憶された時系列のデジタル画像より所定画像エリア内に位置する画素の輝度が読み出すと共に、所定時間毎の輝度の分散値を計算し、画素分析結果記憶手段130は、前記分散値が上記デジタル画像の画素に対応させて時系列的に記憶する。
【0060】
画素状態識別手段14は、前記分散値の時系列の変動状態を判別し、その分散値を計算した画素の状態を「動状態」「経過状態」「人候補」「背景」の4状態に識別し、画素状態識別結果記憶手段140は、画素状態識別結果を上記デジタル画像の画素に対応させて時系列的に記憶する。人候補領域作成手段15は、前記識別した「人候補」画素と、これに近接又は連続する「動状態」画素及び「経過状態」画素を合わせた人候補領域を作成し、人候補領域作成結果記憶手段150は、人候補領域作成結果を上記デジタル画像の画素に対応させて記憶する。人領域検出手段16は、前記人候補領域の特徴を判別し人領域を検出し、人検出データ出力手段17は、検出された人の位置又は人数などの人検出データを出力する。
【0061】
このような人検出装置の出力する人検出データに基づく照明・空調制御について説明する。図24は環境制御手段を備えた人検出装置、及びその装置の適用例を示す。室内2に居る人20の人数を検知するため、フロア全体を見渡せるように1台のTVカメラ3が天井に設置されている。TVカメラ3からの画像は、人検知装置10の人検知装置本体18に送られ、その画像をもとに人検知装置本体により人検知が行われる。人検知本体18には環境制御手段19が接続されており、環境制御手段19が、人検知装置本体18からの人検知データに基づいて照明・空調の制御を行う。室内2には、例えば、照明201が4台、空調202が2台、外気取入口203が1ヶ所備えられており、これらの照明・空調機器が環境制御手段19によって制御される。
【0062】
上述の人検知装置本体18は、前述の図23に示した撮像手段11から人検出データ出力手段17までの一連の装置構成を有しているものである。この人検知手段18における撮像手段は、TVカメラ3により時系列の室内画像を撮像する。デジタル画像記憶手段は、前述の図8のフローチャートに従い、撮像手段より入力されたアナログ映像信号をデジタル化し、メモリに連続する画像として保存する。画素分析手段と画素分析結果記憶手段は、図9のフローチャートに従い、画像上の全画素について、分散値F、分散値Bを計算し、その結果をメモリに保存する。画素状態識別手段と画素状態識別結果記憶手段は、図10のフローチャートに従い、各画素の状態を、「動状態」、「経過状態」、「人候補」、「背景」の4状態に分別し、その結果をメモリに保存する。人候補領域作成手段と人候補領域作成結果記憶手段は、図11のフローチャートに従い、「動状態」、「経過状態」、「人候補」の画素を使って人候補領域を作成してその領域にラベル付けを行う。
【0063】
人領域検出手段は、図13のフローチャートに従い、人の検出を行う。静止した人と動いている人を区別する場合には、図16のフローチャートに示される処理も合わせて行い、更に、テレビ画面のちらつき等の誤検出を減らす必要がある場合には、図17、又は図19のいずれか、又は、これら両方のフローチャートで示される処理を合わせて行う。人検出データ出力手段では、図14のフローチャートに従い、検出された人数とその位置をディスプレイ上に表示すると共に、これらの人検出データを環境制御手段19に送信する。環境制御手段19は、人検出データに基づいて照明・空調機器を制御する。
【0064】
本発明の人検出装置10を用いることにより、1台の人検出装置で複数の照明機器を操作するための人検出データを得ることができる。従来、各照明機器ごとに焦電素子センサを設置して、人の存在に合わせて照明機器の点灯/消灯を制御することが行われているが、本発明によると、制御対象エリアに1台のTVカメラを設置することで、制御用の人検知データを得ることができる。
【0065】
照明制御の処理の流れについて、図25のフローチャートを用いて説明する。人検知装置本体が人検出処理実行後(S31)、環境制御手段は、人検出データを受け取り、各照明機器番号の対応するエリア内に人が居るどうかを判定する(S32,S33)。人が居ないと判定されたエリアは消灯され(S33でN、S33)、人が居ると判定されたエリアについては点灯される(S33でY、S34)。このような処理が全ての照明機器について行われる。また、一定時間経過後に、上記ステップS31〜S37の全体が繰り返される。
【0066】
また、室内の空調に関しては、人検出データを用いることにより、部屋に居る人数、人の位置に合わせて空調を制御することができる。このため、無駄なエネルギー消費を無くし、かつ、室内の執務者の快適さを向上させることができる。従来、空調の制御は温度センサの出力により基づいて行われているため、人が居なくても一定温度に保持しようとするので無駄が多く、また、人の混み具合に関わらず一定の強度での動作しか行わないので、人に対して心地良い状態を提供できない場合が多い。また、外気取入動作は、部屋の広さにより決められる固定した在室人数に基づいて行われることが多いため、人が少ないにもかかわらず無駄な換気が行われ、エネルギーが無駄になる場合が多い。本発明によると、このような従来の問題点が解決される。
【0067】
空調制御の処理の流れについて、図26のフローチャートを用いて説明する。以下の説明では、室内に居る人は、事務作業などの静止した作業を行っている状況を想定している。人検知装置本体が人検出処理実行後(S41)、環境制御手段は、人検出データを受け取り、まず、全体の総検出人数に合わせて外気取入量を調節する(S42)。次に、各空調機器番号の対応するエリア内における静止した人の有無を判定し(S44)、静止した人が居ないエリアでは、人は居ないと判断することができるので空調機器を停止し(S44でN、S46)、静止した人が居る場合には、静止した人の人数に空調機器の出力を調整する(S44でY、S45)。このような処理が全ての空調機器について行われる。また、一定時間経過後に、上記ステップS41〜S47の全体が繰り返される。なお、環境調節機器である上記の照明・空調機器は、その他の環境調節機器に置き換えもよく、上記環境制御手段によって同様に制御することができる。
【0068】
なお、本発明は、上記構成に限られることなく種々の変形が可能である。また、本発明は、人以外にも一般の動物に対して、所定エリア内でその数や動向を検知する装置として適用されるものである。本装置は、特に、動きの少ない動物に対して有効である。
【図面の簡単な説明】
【図1】 本発明の一実施形態に係る人検出装置の構成図。
【図2】 本発明の一実施形態に係る人検出方法のフロー図。
【図3】 (a)は同上人検出方法に係る人の動きを説明する図、(b)は同じく物体の動きを説明する図。
【図4】 (a)は同上人検出方法に係る輝度の分散値計算区間を説明する輝度の時間変化図、(b)は輝度の分散を説明する輝度値度数分布図。
【図5】 (a)は同上人検出方法に係る人の場合の輝度の時間変化図、(b)(c)は輝度の分散値の時間変化図。
【図6】 (a)は同上人検出方法に係る物体の場合の輝度の時間変化図、(b)(c)は輝度の分散値の時間変化図。
【図7】 同上人検出方法に係る画素の状態遷移図。
【図8】 同上人検出方法に係るデジタル画像記憶過程のフロー図。
【図9】 同上人検出方法に係る画素分析過程と画素分析結果記憶過程のフロー図。
【図10】 同上人検出方法に係る画素状態識別過程と画素状態識別結果記憶過程のフロー図。
【図11】 同上人検出方法に係る人候補領域作成過程のフロー図。
【図12】 同上人検出方法に係る人候補領域作成結果を示す画素図。
【図13】 同上人検出方法に係る人領域検出過程のフロー図。
【図14】 同上人検出方法に係る人検出データ出力過程のフロー図。
【図15】 同上人検出方法に係る人検出データ出力例の図。
【図16】 同上人検出方法に係る「動状態」画素と「経過状態」画素の和と「人候補」画素の和の比を用いる人領域検出過程のフロー図。
【図17】 同上人検出方法に係る「動状態」と「経過状態」を合わせた部分領域の重心位置を用いる人領域検出過程のフロー図。
【図18】 同上人検出方法に係るテレビ画面の処理を説明する図。
【図19】 同上人検出方法に係る人候補領域の外接四角形とその接点を用いる検出過程のフロー図。
【図20】 同上人検出方法に係るテレビ画面の処理を説明する図。
【図21】 同上人検出方法に係る人検出データ重ね合わせ表示の処理フロー図。
【図22】 同上人検出方法に係る人検出データ重ね合わせ出力例の図。
【図23】 本発明の他の一実施形態に係る人検出装置の構成ブロック図。
【図24】 本発明のさらに他の一実施形態に係る人検出装置の構成図。
【図25】 同上装置による照明制御のフロー図。
【図26】 同上装置による空調制御のフロー図。
【符号の説明】
1、10 人検出装置
11 撮像手段
12 デジタル画像記憶手段
13 画素分析手段
14 画素状態識別手段
15 人候補領域作成手段
16 人領域検出手段
17 人検出データ出力手段
19 環境制御手段
75,76,77 人候補領域
130 画素分析結果記憶手段
140 画素状態識別結果記憶手段
150 人候補領域作成結果記憶手段
C 人候補
D 動状態
T 経過状態
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a method and apparatus for detecting the presence of a person, the position of a person, and the number of persons indoors by performing image processing on an observed image.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, the movement of people and the distribution of people in an observation area have been detected for the purpose of observation of human work and behavior, automatic control of the environment, and monitoring of intrusion of suspicious objects. The main conventional techniques for human detection include those using pyroelectric element sensors and those using image processing. In the case of using a pyroelectric element sensor, the presence or absence of a person in the observation region is detected by detecting infrared rays emitted from the human body using the pyroelectric element sensor. When detecting the location of a person, it is not possible to determine where a person exists by using only a single sensor. Therefore, it is necessary to measure using multiple sensors, which takes time to install the sensor. There is. In addition, since this method detects a person by detecting a temperature change in the observation space, it cannot be detected when the person is stationary.
[0003]
One that uses the image to detect people is one that uses the background subtraction method. The background subtraction method is a method of detecting a difference portion by taking a difference between a background image stored in advance and an input image. In this method, if the background image does not change, the changed part can be detected with high accuracy. However, in the actual use environment, when the ambient light changes, or an object is brought into or taken out of the observation field, False detection occurs. In order to cope with these environmental changes, automatic background image updating is generally performed.
[0004]
For example, in order to automatically update the background image, for example, to detect the number and distribution of people in the monitoring area as an indoor monitoring device, the background of the image captured in the monitoring area by specifying the person monitoring area in advance The person is detected based on the difference, and whether the person is a person is determined by the sum of the absolute values in the monitoring area, and the background image is updated when the change history of the background difference absolute value exceeds a predetermined amount. Is known (see, for example, Patent Document 1).
[0005]
In addition, a moving body identification device is known that improves the accuracy of detection of moving objects by performing background updating and excluding those that repeatedly operate at a specific position such as a door (movable background) (for example, , See Patent Document 2). This apparatus detects a moving object based on background difference, and when the difference value does not exceed the threshold value continuously, the image portion is set as a moving object. When the difference value equal to or greater than the threshold value continues for a certain period, the background image is updated assuming that the background has changed. Further, when the detected moving object shape repeatedly appears, it is distinguished from the moving object by determining that the moving object is a movable background.
[0006]
In addition, a person detection device that automatically updates the background when the surrounding situation changes and detects the number of passengers waiting in the elevator hall and the number of people in the elevator, and an elevator control system using the same are known ( For example, see Patent Document 3). In this apparatus, the moving object is detected based on the background difference. The area where the difference value exceeds the threshold is divided by the standard person area, or the number of pixels detected as moving objects is counted to determine the number of persons. If you have two background images with different background update timings and update the background image to update the background used for background difference while referring to the old background as seen from the current image, once you have been captured in the background It can prevent that the part which has not moved and is detected as a ghost. In addition, the threshold for human detection binarization is automatically adjusted by comparing the detection by area and the number of detections by counting the lump.
[0007]
In addition to the above example, in order to deal with the problem that a stationary person is captured in the background, as another detection method using an image, the luminance change in the time series direction is analyzed for each pixel to determine the pixel state. A device that detects and uses constraints of the state transition of the detected pixel is known (for example, see Non-Patent Document 1).
[0008]
[Patent Document 1]
JP-A-11-311682
[Patent Document 2]
JP 4-1111079 A
[Patent Document 3]
JP 10-31448 A
[Non-Patent Document 1]
Proceedings of the 7th Image Sensing Symposium (2001), C-20, pp 369-374, “Layer type detection method to understand the overlapping of multiple objects”, Hironobu Fujiyoshi, Takeo Kanade
[0009]
[Problems to be solved by the invention]
However, in the apparatus as shown in Patent Document 1 described above, the monitoring position cannot be set unless the place where the person exists is known in advance. In addition, when there are people who work while sitting, for example, in the case of a computer worker, it moves only about the fingertips, so most of the body is taken in the background, the difference integral value in the area becomes small, It is expected that people will not be detected.
[0010]
Further, in the device as shown in Patent Document 2 described above, the background is updated when a state different from the background image continues for a certain time or longer, so that a person sits on a chair or stops and is in a stationary state. Then, there is a problem that a person is taken into the background and only a moving person can be detected. In addition, the apparatus as disclosed in Patent Document 3 described above has a problem that a stationary person cannot be detected due to being captured in the background.
[0011]
In addition, in the detection method as shown in Non-Patent Document 1 described above, it is possible to identify whether the detected person is moving or stationary. Similarly, since the identification is based on the difference between the luminance values, there is a problem that when a person with a luminance value very similar to the background comes, it is determined as the background and no person is detected.
[0012]
The present invention solves the above-described problems, and uses image processing to detect not only a moving person but also a stationary person, and measure its position and number of people even in a situation where ambient light changes. An object of the present invention is to provide a human detection method and a human detection device.
[0013]
[Means for Solving the Problems and Effects of the Invention]
In order to achieve the above object, the invention of claim 1 is a human detection method for detecting a person by performing image processing on a picked-up image, and picks up a person's movement in a predetermined area sequentially in time series. A digital image storage process for storing digital images that have been captured in the imaging process and digitized in time series, and each of the digital images stored in the predetermined image area from the stored time series digital images. A pixel analysis process for reading out the luminance values of the pixels in a time series and calculating a temporal variation variance value of the luminance of each pixel at a predetermined time, and storing the variance values in correspondence with the pixels of the digital image in a time series. The pixel analysis result storage process to be performed and the time-series variation state of the variance value are discriminated, and the pixel state for which the variance value is calculated is identified as at least three states of “moving state”, “person candidate”, and “background”. Pixel state identification In addition, the pixel state identification result storage process for storing the pixel state identification result in correspondence with the pixel of the digital image in time series, the identified “person candidate” pixel, A candidate process for creating a candidate area by combining pixels, a candidate process for creating a candidate area, and storing a candidate result of creating a candidate area corresponding to the pixel of the digital image, and features of the candidate person area And detecting a human area, and a human detection data output process for outputting human detection data such as the position or the number of detected persons.
[0014]
In the human detection method, the luminance value of each pixel located in the predetermined image area is read out from the digital image that is continuous in time series, which is obtained by sequentially capturing the movement of the person in the predetermined area in time series. The time-varying variance value of the luminance of each pixel is calculated, the time-series variation state of the variance value stored in time series corresponding to the pixel of the digital image is determined, and the variance value of the pixel for which the variance value is calculated The state is classified into at least three states of “moving state”, “person candidate” and “background”, and the identified “person candidate” pixel is combined with the “moving state” pixel adjacent or continuous with this to create a candidate region. Because the human area is detected by distinguishing the characteristics of the human candidate area, the moving person is determined as “moving state”, the stationary person is determined as “human candidate”, and the stationary object is determined as “background”. Not only those who are moving, but also those who are stationary It can be detected to separate the person from the background Te. In addition, since the conventional human detection method determines the presence or absence of a person based on the difference between the luminance of the background image or the previous image and the luminance of the current image, the luminance of the human part in the background image and the current image is similar to that of the background. Even if there is a part that could not be detected due to the brightness of the person, or a part that could not be detected because the difference in brightness between the previous image and the current image disappeared when the person stopped, Since the determination is made by using the fact that the variance value representing the temporal variation in luminance is different, it is possible to detect a person with high accuracy. Further, since the person is detected by discriminating the time-series variation state of the dispersion values stored in time series, the person can be detected with high accuracy even under a situation where the ambient light changes.
[0015]
According to a second aspect of the present invention, in the human detection method according to the first aspect, in the human region detection process, when the shape or area of the human candidate region is within a predetermined range, the human candidate region is a human region. Judgment.
[0016]
In the human detection method, it is determined whether the human candidate region is a human region using the shape or area of the human candidate region, so that the process of the human region detection process can be simplified.
[0017]
According to a third aspect of the present invention, in the human detection method according to the first aspect, in the human region detection step, a ratio between the number of “moving state” pixels and the number of “human candidates” pixels included in the human candidate region is obtained. Using this ratio, it is determined whether the human candidate area is a stationary human area.
[0018]
In the above human detection method, by identifying whether the area determined to be a person is moving or stationary, it is possible to distinguish and recognize a stationary person having a long stay time and a moving person having a short stay time, Processing according to a stationary person with a long stay time, for example, air conditioning control can be performed.
[0019]
According to a fourth aspect of the present invention, in the human detection method according to the first aspect, in the human region detection step, the barycentric position of the partial region including the “moving state” pixels included in the human candidate region has a predetermined period. When located within a predetermined range, the person candidate area is determined not to be a human area.
[0020]
In the human detection method, when the position of the center of gravity of the partial region including the “moving state” pixels included in the human candidate region is located within a predetermined range for a predetermined period, the human candidate region is a human region. Because the brightness changes at a specific position on the captured image, for example, the flickering area of the PC display or TV screen can be excluded from the human area, and these can be mistakenly detected as people Can be eliminated.
[0021]
According to a fifth aspect of the present invention, in the human detection method according to the first aspect, in the human region detection process, the position and shape of a circumscribed rectangle circumscribing the human candidate region do not change for a predetermined period, and When the position of the point where the human candidate area touches the circumscribed rectangle does not change, it is determined that the human candidate area is not a human area.
[0022]
In the above human detection method, when the position and shape of the circumscribed rectangle circumscribing the human candidate area do not change for a predetermined period and the position of the point where the human candidate area touches the circumscribed square does not change, Since it is determined that the human candidate area is not a human area, a luminance change at a specific position on the captured image, for example, a flickering area of a personal computer display or a TV screen can be excluded from the human area. It is possible to eliminate detection as a person.
[0023]
According to a sixth aspect of the present invention, in the human detection method according to the first aspect, in the detection result output process, the detected human region and the human detection data are superimposed and displayed on the captured image.
[0024]
In the above human detection method, the detected human area and the human detection data are displayed superimposed on the captured image, so that the human detection data displayed superimposed on one output screen can be intuitively recognized, and the predetermined area This makes it easier to understand the trends of people within the company.
[0025]
According to a seventh aspect of the present invention, there is provided a human detection device for detecting a person by performing image processing on a picked-up image, an image pickup means for sequentially picking up a person's movement in a predetermined area in time series, and an image pickup by the image pickup means. A digital image storage means for storing a digitized digital image in time series and a luminance value of each pixel located in a predetermined image area is read out from the stored time series digital image, Pixel analysis means for calculating a temporal variation variance value of the luminance of each pixel for each time; pixel analysis result storage means for storing the variance value in time series corresponding to the pixels of the digital image; and A pixel state identifying means for discriminating a time-series variation state and identifying the pixel state for which the variance value has been calculated into at least three states of “moving state”, “person candidate”, and “background”; Digital A pixel candidate identification region is created by combining pixel state identification result storage means for time-series storage corresponding to the pixels of the image, the identified "person candidate" pixel, and a "moving state" pixel adjacent to or continuous with the pixel. A human candidate area creating means, a human candidate area creating result storing means for storing the human candidate area creation result in correspondence with the pixel of the digital image, and a human area for determining the characteristics of the human candidate area and detecting the human area It comprises a detection means and a person detection data output means for outputting person detection data such as the detected position or number of persons.
[0026]
In the above configuration, the luminance data of each pixel located in the predetermined image area is read out from the digital image continuously captured in time series that sequentially captures the movement of the person in the predetermined area in time series. Calculate the temporal variation variance value of the luminance of the pixel, determine the temporal variation state of the variance value stored in time series corresponding to the pixel of the digital image, and determine the state of the pixel for which the variance value was calculated At least three states of “moving state”, “person candidate”, and “background” are identified, and a person candidate region is created by combining the identified “person candidate” pixel and a “moving state” pixel adjacent or continuous with this pixel. Since the human area is detected by discriminating the characteristics of the candidate area, the moving person can be determined as “moving state”, the stationary person as “human candidate”, and the stationary object as “background”. Can do not only those who are moving but also those who are stationary It can be detected and separated from. In addition, since the conventional human detection method determines the presence or absence of a person based on the difference between the luminance of the background image or the previous image and the luminance of the current image, the luminance of the human part in the background image and the current image is similar to that of the background. In the human detection device, the brightness of the human part and the part of the object cannot be detected because the brightness difference between the previous image and the current image disappears when the person is stationary. Since the determination is made by utilizing the fact that the variance values representing the temporal fluctuations of are different, it is possible to accurately detect a person.
[0027]
According to an eighth aspect of the present invention, there is provided the human detection device according to the seventh aspect, further comprising environmental control means for controlling an environmental adjustment device such as lighting and / or air conditioning using the human detection data.
[0028]
In the above configuration, since the lighting and / or air conditioning is controlled using the person detection data, the lighting / air conditioning can be controlled according to the number of people in the room and the position of the person. The wasteful energy consumption to operate is eliminated, and the comfort of the office worker in the room can be improved. In addition, according to the present invention, control human detection data can be obtained by installing one imaging TV camera in the control target area.
[0029]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a human detection method and a human detection device according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of a human detection device according to the present invention, and FIG. 2 shows a processing flow of a human detection method. The human detection device 1 detects a person 20 in the room 2 and outputs the number and position of the person 20 using a continuous image obtained by sequentially capturing images in a time series from the TV camera 3 installed so as to look down at the room 2. To do. In each process of the human detection method, the imaging process S101 is the TV camera 3, the digital image storage process S102 is the A / D conversion unit 4 and the storage unit 5, the pixel analysis process S103, the pixel state identification process S105, and the human candidate area creation Process S107 and human area detection process S109 are performed in the calculation unit 6, pixel analysis result storage process S104, pixel state identification result storage process S106, human candidate area creation result storage process S108 are stored in the storage unit 5, and human detection data output process S110 is performed in the communication unit 9 and the display 8.
[0030]
An overall flow of a human detection method for detecting a human by performing image processing on a captured image will be described. In the imaging process S101, the movement of a person in a predetermined area (room 2) is sequentially imaged in time series, and in the digital image storage process S102, digital images that are captured in the imaging process and digitized are continuous in time series. Images are stored. In the pixel analysis step S103, the luminance value of each pixel located in the predetermined image area is read from the stored time-series digital image, and the variance value for the time variation of the luminance of each pixel every predetermined time is obtained. In the pixel analysis result storing step S104, the variance value is stored in time series corresponding to each pixel of the digital image.
[0031]
In the pixel state identification step S105, the time-series variation state of the variance value is discriminated, and the pixel state for which the variance value is calculated is identified as four states of “moving state”, “elapsed state”, “person candidate”, and “background”. In the pixel state identification result storage step S106, the pixel state identification results are stored in time series corresponding to the pixels of the digital image. As will be described later, the “elapsed state” may be regarded as a part of the “moving state” or a part of the “person candidate”. In this case, the pixel state is changed to the “moving state” in the pixel state identifying process. ”,“ Person candidate ”, and“ background ”. In the human candidate region creation step S107, a human candidate region is created by combining the identified "human candidate" pixel, and a "moving state" pixel and an "elapsed state" pixel adjacent to or adjacent to the identified "human candidate" pixel. In the storing step S108, the human candidate area creation result is stored in correspondence with the pixel of the digital image. In the human region detection step S109, the human candidate region is detected to detect the human region, and in the human detection data output step S110, human detection data such as the detected position or number of people is output.
[0032]
A feature of the present invention is that a temporal change in luminance is obtained in a time series for a target pixel of a captured continuous image, and a luminance dispersion value at a certain time interval is calculated based on the time variation, and the luminance dispersion value is obtained. Thus, the state of the pixel of interest is classified into at least three states of “moving state”, “person candidate”, and “background” based on the time change. It is determined that the moving person is “moving state”, the stationary person is “person candidate”, and the stationary object is “background”. Since the conventional human detection method simply determines the presence or absence of a person by using the difference in luminance between the current image and the background image (or the previous image), a human part in the current image and the background image. Cannot be detected by distinguishing the person from the background. In addition, when a person is stationary, the difference between the current image and the previous image disappears and the person cannot be detected. According to the present invention, a stationary person and a stationary object can be distinguished and determined, and not only a moving person but also a stationary person can be detected separately from the background.
[0033]
The movement and stop state of the person who is the observation target and the object other than the person will be described. FIG. 3 shows an example of image change. As shown in FIG. 3A, when the person 20 moves from the left in the image 21 and stops at the center of the image 22 and then leaves to the right as in the image 23, and FIG. As shown in b), when the object 25 is moved and once placed at the center in the image 27 and then taken away, the comparison is made. In the stop state, a difference between the state of the person and the object appears. Normally, an abandoned object is in a stationary state, but there is a difference that a person does not completely stop even in a stopped state.
[0034]
The luminance change will be described. FIG. 4A shows a measurement example of the luminance of specific pixels such as the target pixels 24 and 29 indicated by X in the image, and FIG. 4B shows the state of luminance dispersion. In the present invention, two types of dispersion values, the dispersion value F and the dispersion value B, are defined and used. The f section 31 including n images from the past pixel analysis time point t (−n + 1) to the latest image capturing time point t (0) in the future direction with respect to the change curve 30 of the luminance Y shown in FIG. The variance value F is calculated using the luminance values at n points. In addition, the variance value B using the luminance values of m points in the b section 32 including m images from the pixel analysis time point t (−n + 1) to the pixel analysis time point t (−m−n + 2) in the past direction. Is calculated. The state of dispersion of the luminance values (frequency distribution) is as shown by a curve 33 and a curve 34 in the f section 31 and the b section 32, respectively. The example of the b section 32 shown in FIG. 4A is regarded as a moving state of a person or an object, and the example of the f section 31 is regarded as a stopped state.
[0035]
The dispersion value obtained from the luminance value distribution may be a numerical value that can quantify the state of dispersion. For example, the standard deviation σ obtained by fitting the frequency distribution with a normal distribution curve, or the square of the deviation from the average value It is calculated by the formula for sum. The variance values obtained by any of these methods are as follows: variance value 35 (variance value F), variance value 36 (variance value B), f-segment 31 corresponds to the stop state, and b-segment When 32 corresponds to the moving state, it can be seen that the state can be distinguished by the difference in the variance values. The variance value F is used for detecting the start of motion, and the variance value B is used for detecting the end of motion.
[0036]
The state identification will be described. FIG. 5 shows changes in luminance and dispersion value in the case of movement, stop, and movement of a person, and FIG. 6 shows changes in luminance and dispersion value in time in the case of movement, stop, and movement of an object. In FIG. 5A, the variance value F and the variance value B are obtained from the time change curve 40 of the luminance Y for each fixed interval, for example, from the f interval 31 and the b interval 32, and shown in FIG. 5B. The manner of obtaining the dispersion value F curve 41 and the dispersion value B curve 42 shown in FIG. 5C is shown.
[0037]
In order to identify the state of the pixel of interest using such a variance value F curve 41 and variance value B curve 42, three types of threshold values for the variance value are defined and used. These are the “motion state” detection threshold TFM, the elapsed state detection threshold TBS, and the “background” detection threshold TBB. The “moving state” detection threshold value TFM is used for “moving state” detection in comparison with the variance value F when a person or an object moves. The “elapsed state” detection threshold value TBS is used to detect “person candidate” or “background” by comparing with the variance value B in a state once the “moving state” is reached. Until the “moving state” is determined as “person candidate” or “background”, it is regarded as “elapsed state”, and this state is regarded as a part of the “moving state”.
[0038]
For example, in FIG. 5B, the pixel of interest is “moving state” after the intersection M1 where the “moving state” detection threshold value TFM intersects the rising slope of the variance value F curve 41 (curved portion having a positive time differential coefficient). ] (Section 44). Thereafter, in FIG. 5C, the pixel of interest is “elapsed” after the point S1 where the “elapsed state” detection threshold value TBS intersects the descending slope of the variance value B curve 42 (curve portion having a negative time differential coefficient). State (interval 45), and then when the state where the variance B is equal to or less than the threshold value TBS and equal to or greater than the threshold value TBB continues for a certain period of time, the state of the pixel of interest is determined as “person candidate”. Determine (section 46). Further, after the intersection S2 between the threshold value TBS and the dispersion value B curve 42 in FIG. 5C, the dispersion value B is changed as shown after the intersection point B1 between the threshold value TBB and the dispersion value B curve 42. When the threshold value is less than or equal to TBS and further becomes less than or equal to TBB within a certain time, the state of the pixel of interest is determined to be “background” (section 49). Here, instead of providing an “elapsed state”, the dispersion value is equal to or greater than the threshold value TBS or the threshold value TBS after a predetermined wait time has elapsed since the dispersion value became equal to or less than the threshold value TBS. The state of the target pixel may be determined as “moving state”, “person candidate”, or “background” depending on whether it is between the values TBB or below the threshold value TBB. In this case, it is assumed that the “dynamic state” continues during the wait time, and if the variance value is equal to or greater than the threshold value TBS after the wait time, the “dynamic state” is further continued, and the variance value is the threshold value. If it is between TBS and threshold value TBB, the state of the target pixel is determined as “person candidate”, and if the variance value is equal to or smaller than threshold value TBB, the state of the target pixel is determined as “background”.
[0039]
As described above, the “person candidate” section 46 and the “background” section 49 shown in FIG. 5A can be distinguished by the behavior after the intersections S1 and S2 with the threshold value TBS in the variance value B curve 42. it can. A person is not able to completely stop even if he / she stops, and is shaking, thereby distinguishing the stationary state (or background) of the object from the stationary state of the person.
[0040]
In the case of an object, as shown in FIG. 6, the “moving state” is detected by the intersections M3 and M4 with the variance F curve 51 as in the case of a person (sections 54 and 57). After the “elapsed state”, unlike a person, in the case of an object, the threshold value TBB and the dispersion value B curve after the intersections S3 and S4 between the threshold value TBS and the dispersion value B curve 52 in FIG. Intersection points B3 and B4 with 52 appear without much time, and the variance B becomes equal to or less than the threshold value TBB, so that the state of the target pixel can be determined as “background” (sections 56 and 59).
[0041]
With regard to the four states that can be taken by the pixel defined by the luminance and the luminance dispersion value, the transition between the states will be described. FIG. 7 shows, with arrows, the state of transition that can be normally taken between the four states of the pixel. The four states of the background 61, the moving state 62, the elapsed state 63, and the person candidate 64 can each maintain their own states as indicated by arrows returning from the self state and returning to the self state. Moreover, although it can become the background 61 or the person candidate 64 from the progress state 63, conversely, it does not become a progress state from the background 61 or the person candidate 64. In addition, the moving state 62 can be changed from the person candidate 64, but conversely, the moving candidate 62 does not become the moving candidate 62. When the moving state 62 changes to the background 61, the state transition usually takes place via the elapsed state 63. However, when the elapsed state is short, depending on the balance between the data interval of the distributed value and the elapsed state duration, There is a case where the moving state 62 as shown in FIG.
[0042]
Next, each process in the human detection method will be described. First, the digital image storage process will be described with reference to the flowchart of FIG. In this flow, as described above, the dispersion value F is stored from n images, and (m + n−1) images for determining the dispersion value B from m images are stored (one is common). First, initial processing for image storage and memory reservation are performed (S201 to S203). Next, an analog video signal that is sequentially read and generated from the image projected on the image sensor in the imaging process is received (S204), and this signal is D / A converted and stored in a predetermined memory (S205). To S208). Finally, the image memory area number is incremented in preparation for the next image input.
[0043]
The pixel analysis process and the pixel analysis result storage process will be described with reference to the flowchart of FIG. In this flow, the luminance of pixels located in a predetermined image area is read from the stored time-series digital image, and the luminance variance value F and variance value B for each predetermined time are calculated. First, initial processing and memory reservation are performed (S301, S302). Next, among the (m + n−1) images stored in the digital image storage process, the luminance value of the image at the target pixel is read from the newer n images, and the variance value F is calculated (S303 to S305). . Next, among the (m + n−1) images stored in the digital image storage process, the luminance value of the image at the target pixel is read out from the older m images and the variance value B is calculated (S306, S307). . The above processing is performed for all the pixels in the predetermined image area.
[0044]
The pixel state identification process and the pixel state identification result storage process will be described with reference to the flowchart of FIG. In this flow, the pixel state of the target pixel is classified into four, and the result is stored in the memory. First, initial processing and memory reservation are performed (S401 to S403). Next, the dispersion value F data, the dispersion value B data, and the pixel state identification result data at the time of the previous processing at the position of the target pixel are read (S404). If the previous result is “background” (Y in S405), the moving state detection threshold value TFM is compared with the variance value F. If TFM <F, the pixel state is moved (Y in S406, S407). If TFM <F, the pixel state is set to the background (N in S406, S408).
[0045]
If the previous result is a “person candidate” (Y in S409), the moving state detection threshold value TFM is compared with the variance value F. If TFM <F, the pixel state is moved (Y in S410, S411). ), If TFM <F, the pixel state is a human candidate (N in S410, S412).
[0046]
If the previous result is “elapsed state” (Y in S413), the elapsed state detection threshold value TBS is compared with the variance value B. If B ≦ TBS is not satisfied, the pixel state is changed to the moving state (N in S414, S415) ), B ≦ TBS, the background detection threshold value TBB and the variance value B are further compared. In this comparison, if B ≦ TBB, the pixel state is set to the background (Y in S416, S417). If B ≦ TBB is not satisfied, the elapsed state counter T is compared with the elapsed state count threshold value TM after the elapsed state counter is incremented (T = T + 1) in order to see the state change with time, and TM <T In this case, the elapsed state counter T is cleared to zero (T = 0) and the pixel state is set as a human candidate (N in S416, Y in S418, Y in S419, S420, S421). If TM <T is not satisfied, the pixel state is set to the elapsed state (N in S419, S422).
[0047]
If the previous result is “moving state” (Y in S423), the elapsed state detection threshold value TBS is compared with the variance value B. If B ≦ TBS is not satisfied, the pixel state is moved (N in S424, S425). ), B ≦ TBS, the background detection threshold value TBB and the variance value B are further compared. In this comparison, if B ≦ TBB is not satisfied, the elapsed state counter T is cleared to zero (T = 0) and the pixel state is set to the elapsed state (N in S426, S427, and S428). If B ≦ TBB, the pixel state is set to the background (Y in S426, S429).
[0048]
The pixel state identification result is stored in the memory in correspondence with the pixel position of the captured digital image (S430). The above state identification process is performed for all the pixels in the predetermined image area. In the above-described embodiment, a past period and a future period are determined from a past analysis time, and the two types of variance value B and variance value F obtained in each period are used to determine the target pixel. Although the state is identified, in addition to this method, one type of period consisting of only a period in the past direction, only a period in the future direction, or a period that spans both from a certain analysis point in the past was obtained. The state of the target pixel may be identified using one type of dispersion value. As described above, when two types of variance values are used, there is an effect that a state with good responsiveness can be identified, and when one type of variance value for one type of period as shown here is used. Has the effect of being able to be identified by reducing the storage capacity of the variance value.
[0049]
The human candidate area creation process and the human candidate area creation result storage process will be described with reference to the flowchart of FIG. In this flow, a “candidate person” pixel whose pixel state has been identified, a “moving state” pixel and an “elapsed state” pixel that are close to or continuous with this pixel are combined to create a candidate human region. First, initial processing and memory allocation are performed (S501, S502). Next, the pixel state identification result stored in the memory is read, and the first target pixel address is set (S503, S504). Next, the pixel state is inspected for the m1 × n1 pixel range separately defined in the vicinity of the target pixel, for example, the vicinity of 6 × 4 = 24, and any of “moving state” D, “elapsed state” T, and “person candidate” C is selected. These pixels are labeled as pixels in the human candidate area (S505). The above labeling process is performed for all the pixels in the predetermined image area (Y in S507 and S506). Next, in order to perform one labeling as a group for adjacent or consecutive human candidate regions, a label consistency check and a relabeling are performed, and finally the pixel position of the captured digital image is set. Correspondingly, the human candidate area creation result is stored in the memory (S508 to S511).
[0050]
FIG. 12 shows a candidate candidate area creation result. In this figure, each square represents one pixel, the plain pixel 71 is the background, the pixel 72 in which the letter D is entered is the moving state, the pixel 73 in which the letter T is entered is the elapsed state, and the letter C is entered. Pixel 74 represents a human candidate. In addition, regions 75, 76, and 77 including a set of pixels other than the background are labeled human candidate regions.
[0051]
The human area detection process will be described with reference to the flowchart of FIG. In this flow, the characteristics of the human candidate area are determined, and the human area is detected. For example, the area (number of pixels) of the area is used as the feature of the human candidate area. As another feature, the shape of the region such as the vertical and horizontal sizes of the region can also be used. First, the stored human candidate area creation result is read out, and the process proceeds in order of label numbers for each area (S601, S602). The area P of the labeled region is calculated (S603), and this area P is compared with the minimum area Pmin and the maximum area Pmax (S604). When the area P of the region satisfies Pmin <P ≦ Pmax, this region is determined to be a person, and the center of gravity of the region is set as a pixel position representing the person (Y in S604, S605, S606). If the area P of the region does not satisfy Pmin <P ≦ Pmax, it is determined that this region is not a person (S607). These processes are performed for all the labeled regions, and finally the human detection data is stored (S609).
[0052]
The human detection data output process will be described with reference to the flowchart of FIG. In this flow, human detection data such as the detected position or number of people is read from the memory (S11) and output on the display (S12). FIG. 15 shows an example of human detection data output. On the display screen 79, the detected number of people and the detected position are displayed.
[0053]
A human region detection process using the ratio of the sum of “moving state” and “elapsed state” pixels and the sum of “person candidate” pixels will be described with reference to the flowchart of FIG. In this flow, the ratio of the sum of the “moving state” pixel and the “elapsed state” pixel included in the human candidate region and the sum of the “human candidate” pixel is obtained, and the human candidate region is stationary using this ratio. It is determined whether it is an area. First, the stored person candidate area creation results are read out, and the process proceeds in order of label numbers for each area (S701, S702). The total number Ndt of “moving state” pixels and “elapsed state” pixels in the labeled region is calculated (S703), and the total number Nc of “human candidate” pixels in the region is calculated (S704). Next, the composition ratio Nc / (Ndt + Nc) of the human candidates obtained from the total numbers Ndt and Nc is compared with a predetermined stationary state detection threshold Ns (S705). As a result of comparison, if Ns <Nc / (Ndt + Nc), this area is determined to be a stationary person, and the center of gravity of the area is set as a pixel position representing the person (Y in S705, S706, and S707). If Ns <Nc / (Ndt + Nc), it is determined that this area is not a stationary person (N in S705, S708). These processes are performed for all the labeled areas, and finally the human detection data is stored (S710).
[0054]
A human region detection process using the gravity center position of the partial region that is a combination of the “moving state” and the “elapsed state” will be described with reference to the flowchart of FIG. According to this flow, when the position of the center of gravity of the partial area including the “moving state” pixel and the “elapsed state” pixel included in the human candidate area is within a predetermined range for a predetermined period, the human candidate area Can be determined not to be a human area. First, the stored person candidate area creation result and the previous person detection data are read out, and the process proceeds in the order of the label numbers for each area (S801 to S803). Next, when a “moving state” pixel or an “elapsed state” pixel exists in the attention area, the center of gravity of the “moving state” pixel and the “elapsed state” pixel in the area is calculated (Y in S804, S805). . Next, when there is no previous human candidate area within the predetermined range (N in S806), the center-of-gravity position counter Tg is assigned to this area and Tg = 1 is set (S807). If the previous candidate area is within the predetermined range (Y in S806), the barycentric position counter Tg assigned to this area is incremented (Tg = Tg + 1) (S808). Next, the center-of-gravity count threshold TG and the center-of-gravity position counter Tg are compared, and if TG <Tg, it is determined that this region is not a person (Y in S809, S810). These processes are performed for all the labeled areas, and finally the human detection data is stored (S812).
[0055]
According to the above-described method, it is possible to determine that a certain person candidate area is not a person. By doing so, as shown in FIG. 18, even if a television screen whose luminance changes with time enters the captured image 80, the position in the image that fluctuates due to the flickering of the television screen is the position of the television. Since this area is fixed, it is determined that this area is not a person, so that it is possible to prevent the flickering of the television screen from being erroneously detected as a person.
[0056]
A human area detection process using a circumscribed rectangle of a human candidate area and its contact points will be described with reference to the flowchart of FIG. According to this flow, when the position and shape of the circumscribed rectangle circumscribing the human candidate region do not change for a predetermined period and the position of the point where the human candidate region touches the circumscribed rectangle does not change, the human candidate region Can be determined not to be a human area. First, the stored human candidate area creation result, the position / shape of the circumscribed rectangle of the previous human candidate area, and the position data of the contact are read out, and the process proceeds in order of the label number for each area (S901 to S903). Next, the position / shape of the circumscribed rectangle of the person candidate area with the label number and the position of the contact are calculated (S904). Next, if there is a human candidate area within a predetermined range to determine whether or not a human area exists (Y in S905), the position / shape of the circumscribed rectangle of the previous human candidate area, the position of the contact point, and the current human candidate area The position / shape of the circumscribed quadrangle and the position of the contact are compared (S907). Further, when there is no previous candidate area within the predetermined range (N in S905), and when the difference between the previous time and this time is not within the predetermined range for the circumscribed rectangle (N in S907), the circumscribed rectangle counter Tq in this region And Tq = 1 (S906). If the difference between the previous time and the current time is within a predetermined range for the circumscribed rectangle (Y in S907), the circumscribed rectangle counter Tq assigned to this area is incremented (Tq = Tq + 1) (S908). Next, the circumscribed square frequency threshold value TQ and the circumscribed square counter Tq are compared, and if TQ <Tq, it is determined that this area is not a person (Y in S909, S910). These processes are performed for all the labeled areas, and finally the human detection data is stored (S912).
[0057]
According to the above-described method, it is possible to determine that a certain person candidate area is not a person. In this way, as shown in FIG. 20, even when a television screen 83 whose luminance changes with time enters the captured image 82, a circumscribed rectangle 84 that circumscribes the television screen 83 that fluctuates due to the flickering of the television screen. Since the position of is fixed at the position of the television, it is determined that this area is not a person, so that it is possible to prevent the flickering of the television screen from being erroneously detected as a person.
[0058]
The superimposed display of the captured image, the detected human region, and the human detection data will be described with reference to the flowchart of FIG. In this flow, the stored human detection data is read (S21), and the detected human region and human detection data are superimposed on the captured image and displayed (S22). FIG. 22 shows an example in which human detection data is output in an overlapping manner. Thus, by displaying the captured image 86 of the predetermined area on the display 85 and the position 88 and the number 89 of the person 87 in the detection area on each image, the person can be easily recognized. The human situation in the detection area can be grasped by watching.
[0059]
Hereinafter, a human detection device according to another embodiment of the present invention will be described. FIG. 23 shows a block diagram of a human detection device configuration. The image pickup means 11 of this human detection apparatus sequentially picks up the movement of a person in a predetermined area (room 2) in time series, and the digital image storage means 12 is picked up and digitized in the image pickup process. Continuous digital images are stored. The pixel analysis means 13 reads the luminance of the pixels located in the predetermined image area from the stored time-series digital image, calculates the luminance dispersion value for every predetermined time, and the pixel analysis result storage means 130 The dispersion values are stored in time series in correspondence with the pixels of the digital image.
[0060]
The pixel state identification means 14 discriminates the time-series variation state of the variance value, and identifies the pixel state for which the variance value is calculated as four states of “moving state”, “elapsed state”, “person candidate”, and “background”. Then, the pixel state identification result storage unit 140 stores the pixel state identification results in time series in correspondence with the pixels of the digital image. The human candidate area creating unit 15 creates a human candidate area by combining the identified “human candidate” pixel, and a “moving state” pixel and an “elapsed state” pixel adjacent to or continuous with the identified “human candidate” pixel. The storage unit 150 stores the human candidate region creation result in association with the pixel of the digital image. The human area detection means 16 discriminates the characteristics of the human candidate area and detects the human area, and the human detection data output means 17 outputs human detection data such as the detected position or number of persons.
[0061]
Illumination / air conditioning control based on human detection data output from such a human detection device will be described. FIG. 24 shows a human detection device provided with environment control means and an application example of the device. In order to detect the number of people 20 in the room 2, one TV camera 3 is installed on the ceiling so that the entire floor can be seen. The image from the TV camera 3 is sent to the human detection device main body 18 of the human detection device 10, and human detection is performed by the human detection device main body based on the image. An environmental control means 19 is connected to the human detection main body 18, and the environmental control means 19 controls illumination and air conditioning based on human detection data from the human detection apparatus main body 18. The room 2 includes, for example, four lightings 201, two air conditioning units 202, and one outside air inlet 203, and these lighting / air conditioning devices are controlled by the environment control means 19.
[0062]
The above-described human detection device main body 18 has a series of device configurations from the imaging means 11 to the human detection data output means 17 shown in FIG. The image pickup means in the human detection means 18 picks up time-series indoor images by the TV camera 3. The digital image storage means digitizes the analog video signal input from the imaging means in accordance with the flowchart of FIG. 8 described above and stores it as a continuous image in the memory. The pixel analysis means and the pixel analysis result storage means calculate the variance value F and variance value B for all the pixels on the image according to the flowchart of FIG. 9, and store the results in the memory. The pixel state identification unit and the pixel state identification result storage unit classify the state of each pixel into four states of “moving state”, “elapsed state”, “person candidate”, and “background” according to the flowchart of FIG. Save the result in memory. The human candidate area creation means and the human candidate area creation result storage means create a human candidate area using the pixels of “moving state”, “elapsed state”, and “human candidate” in accordance with the flowchart of FIG. Perform labeling.
[0063]
The human region detection means detects a person according to the flowchart of FIG. When distinguishing between a stationary person and a moving person, the processing shown in the flowchart of FIG. 16 is also performed. Further, when it is necessary to reduce false detection such as flickering on the TV screen, FIG. Alternatively, the processing shown in either or both of the flowcharts of FIG. 19 is performed. The human detection data output means displays the detected number of people and their position on the display according to the flowchart of FIG. 14 and transmits the human detection data to the environment control means 19. The environment control means 19 controls the lighting / air conditioning equipment based on the human detection data.
[0064]
By using the human detection device 10 of the present invention, it is possible to obtain human detection data for operating a plurality of lighting devices with a single human detection device. Conventionally, pyroelectric element sensors have been installed for each lighting device, and lighting / extinguishing of lighting devices is controlled in accordance with the presence of a person. By installing the TV camera, control person detection data can be obtained.
[0065]
The flow of the illumination control process will be described with reference to the flowchart of FIG. After the human detection apparatus main body executes the human detection process (S31), the environment control means receives the human detection data and determines whether there is a person in the area corresponding to each lighting device number (S32, S33). Areas determined not to have people are turned off (N in S33, S33), and areas determined to have people are lit (Y in S33, S34). Such processing is performed for all lighting devices. Further, after a predetermined time has elapsed, the entire steps S31 to S37 are repeated.
[0066]
In addition, regarding the air conditioning in the room, by using the person detection data, the air conditioning can be controlled according to the number of people in the room and the position of the person. For this reason, useless energy consumption can be eliminated and the comfort of the office worker in the room can be improved. Conventionally, air conditioning is controlled based on the output of the temperature sensor, so it is wasteful because it tries to maintain a constant temperature even when no one is present, and it has a constant strength regardless of how crowded it is. In many cases, it is not possible to provide a comfortable state for people. In addition, since the outside air intake operation is often performed based on a fixed number of people in the room determined by the size of the room, wasteful ventilation is performed even though there are few people, and energy is wasted. There are many. According to the present invention, such conventional problems are solved.
[0067]
The flow of the air conditioning control process will be described with reference to the flowchart of FIG. In the following description, it is assumed that a person in the room is performing a stationary work such as office work. After the human detection apparatus main body executes the human detection process (S41), the environment control means receives the human detection data, and first adjusts the outside air intake amount in accordance with the total number of detected persons (S42). Next, it is determined whether or not there is a stationary person in the area corresponding to each air conditioning equipment number (S44). In an area where there is no stationary person, it can be determined that there is no person, so the air conditioning equipment is stopped. (N in S44, S46) If there is a stationary person, the output of the air conditioner is adjusted to the number of stationary persons (Y in S44, S45). Such a process is performed for all the air conditioners. Further, after a predetermined time has elapsed, the entire steps S41 to S47 are repeated. Note that the above-described lighting / air-conditioning equipment, which is an environmental adjustment device, may be replaced with other environmental adjustment devices, and can be similarly controlled by the environmental control means.
[0068]
The present invention is not limited to the above-described configuration, and various modifications can be made. Further, the present invention is applied to a general animal other than a human being as a device for detecting the number and trend within a predetermined area. This apparatus is particularly effective for animals with little movement.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a human detection device according to an embodiment of the present invention.
FIG. 2 is a flowchart of a human detection method according to an embodiment of the present invention.
FIG. 3A is a diagram for explaining the movement of a person according to the person detection method, and FIG. 3B is a diagram for similarly explaining the movement of an object.
FIG. 4A is a luminance time change diagram illustrating a luminance dispersion value calculation section according to the above-described person detection method, and FIG. 4B is a luminance value frequency distribution diagram illustrating luminance dispersion.
5A is a time variation diagram of luminance in the case of a person according to the person detection method, and FIGS. 5B and 5C are time variation diagrams of luminance dispersion values. FIG.
6A is a time variation diagram of luminance in the case of an object according to the same person detection method, and FIGS. 6B and 6C are time variation diagrams of luminance dispersion values.
FIG. 7 is a state transition diagram of pixels according to the person detection method.
FIG. 8 is a flowchart of a digital image storage process according to the person detection method.
FIG. 9 is a flowchart of a pixel analysis process and a pixel analysis result storage process according to the person detection method.
FIG. 10 is a flowchart of a pixel state identification process and a pixel state identification result storage process according to the person detection method.
FIG. 11 is a flowchart of a human candidate area creation process according to the person detection method.
FIG. 12 is a pixel diagram showing a result of human candidate area creation according to the person detection method same as above.
FIG. 13 is a flowchart of a human area detection process according to the human detection method.
FIG. 14 is a flowchart of a human detection data output process according to the human detection method.
FIG. 15 is a diagram of a human detection data output example according to the human detection method.
FIG. 16 is a flowchart of a human area detection process using a ratio of a sum of “moving state” pixels and “elapsed state” pixels and a sum of “person candidates” pixels according to the person detection method;
FIG. 17 is a flowchart of a human region detection process using the center of gravity position of a partial region that is a combination of “moving state” and “elapsed state” according to the human detection method;
FIG. 18 is a diagram for explaining TV screen processing according to the person detection method;
FIG. 19 is a flowchart of a detection process using a circumscribing rectangle of a human candidate region and its contact points according to the person detection method same as above.
FIG. 20 is a diagram for explaining TV screen processing according to the person detection method;
FIG. 21 is a processing flow diagram of human detection data overlay display according to the human detection method.
FIG. 22 is a diagram of a human detection data overlay output example according to the person detection method same as above.
FIG. 23 is a configuration block diagram of a human detection device according to another embodiment of the present invention.
FIG. 24 is a configuration diagram of a human detection device according to still another embodiment of the present invention.
FIG. 25 is a flowchart of illumination control by the apparatus.
FIG. 26 is a flow chart of air conditioning control by the apparatus.
[Explanation of symbols]
1, 10 person detection device
11 Imaging means
12 Digital image storage means
13 Pixel analysis means
14 Pixel state identification means
15 candidate area creation means
16 human area detection means
17 Person detection data output means
19 Environmental control means
75,76,77 candidate area
130 Pixel analysis result storage means
140 Pixel state identification result storage means
150 candidate area creation result storage means
C candidate
D movement state
T elapsed state

Claims (8)

撮像画像を画像処理することにより人を検出する人検出方法であって、
所定エリア内の人の動きを時系列的に順次撮像する撮像過程と、
前記撮像過程で撮像され、デジタル化された時系列的に連続するデジタル画像を記憶するデジタル画像記憶過程と、
前記記憶された時系列のデジタル画像より、所定画像エリア内に位置する各画素の輝度値を時系列的に読み出し、所定時間毎の各画素の輝度の時間変動分散値を計算する画素分析過程と、
前記分散値を上記デジタル画像の画素に対応させて時系列的に記憶する画素分析結果記憶過程と、
前記分散値の時系列の変動状態を判別して、その分散値を計算した画素の状態を少なくとも「動状態」「人候補」「背景」の3状態に識別する画素状態識別過程と、
画素状態識別結果を上記デジタル画像の画素に対応させて時系列的に記憶する画素状態識別結果記憶過程と、
前記識別した「人候補」画素と、これに近接又は連続する「動状態」画素を合わせて人候補領域を作成する人候補領域作成過程と、
人候補領域作成結果を上記デジタル画像の画素に対応させて記憶する人候補領域作成結果記憶過程と、
前記人候補領域の特徴を判別し人領域を検出する人領域検出過程と、
検出された人の位置又は人数などの人検出データを出力する人検出データ出力過程と、を備えることを特徴とする人検出方法。
A human detection method for detecting a person by performing image processing on a captured image,
An imaging process for sequentially imaging the movement of a person in a predetermined area in time series;
A digital image storage process for storing digital images captured in the imaging process and digitized in a time-series manner;
A pixel analysis step of reading out the luminance value of each pixel located in a predetermined image area in a time series from the stored time-series digital image, and calculating a temporal variation dispersion value of the luminance of each pixel for every predetermined time; ,
A pixel analysis result storing process for storing the dispersion value in a time series corresponding to the pixels of the digital image;
A pixel state identification process for discriminating a time-series variation state of the variance value and identifying the pixel state for which the variance value is calculated into at least three states of “moving state”, “person candidate”, and “background”;
A pixel state identification result storing process for storing pixel state identification results in time series in correspondence with the pixels of the digital image;
A human candidate region creation process of creating a human candidate region by combining the identified "human candidate" pixel and a "moving state" pixel close to or continuous with the pixel,
A human candidate region creation result storage process for storing a human candidate region creation result corresponding to the pixel of the digital image;
A human area detection process for determining the characteristics of the human candidate area and detecting the human area;
And a human detection data output process for outputting human detection data such as the position or number of detected persons.
前記人領域検出過程は、人候補領域の形状又は面積が予め定めた範囲内にある時、人候補領域が人領域であると判定することを特徴とする請求項1記載の人検出方法。The human detection method according to claim 1, wherein the human region detection step determines that the human candidate region is a human region when the shape or area of the human candidate region is within a predetermined range. 前記人領域検出過程は、人候補領域に含まれる「動状態」画素の個数と、「人候補」画素の個数の比を求め、この比を用いて人候補領域が静止した人領域であるかどうかを判定することを特徴とする請求項1記載の人検出方法。In the human area detection process, a ratio between the number of “moving state” pixels included in the human candidate area and the number of “human candidates” pixels is obtained, and using this ratio, the human candidate area is a stationary human area. The human detection method according to claim 1, wherein the determination is made. 前記人領域検出過程は、人候補領域に含まれる「動状態」画素を合わせた部分領域の重心位置が、予め定めた一定期間予め定めた範囲内に位置する時、該人候補領域は人領域ではないと判定することを特徴とする請求項1記載の人検出方法。In the human area detection process, when the gravity center position of the partial area including the “moving state” pixels included in the human candidate area is within a predetermined range for a predetermined period, the human candidate area is a human area. The human detection method according to claim 1, wherein it is determined that it is not. 前記人領域検出過程は、前記人候補領域に外接する外接四角形の位置及び形状が予め定めた一定期間変化せず、かつ、該人候補領域が該外接四角形に接する点の位置が変化しないとき、該人候補領域は人領域ではないと判定することを特徴とする請求項1記載の人検出方法。In the human area detection process, when the position and shape of a circumscribed rectangle circumscribing the human candidate area do not change for a predetermined period, and the position of the point where the human candidate area touches the circumscribed square does not change, The human detection method according to claim 1, wherein the human candidate area is determined not to be a human area. 前記検出結果出力過程は、撮像された画像に検出した人領域と人検出データを重ね合わせて表示することを特徴とする請求項1記載の人検出方法。2. The human detection method according to claim 1, wherein in the detection result output process, the detected human area and the human detection data are superimposed on the captured image. 撮像画像を画像処理することにより人を検出する人検出装置であって、
所定エリア内の人の動きを時系列的に順次撮像する撮像手段と、
前記撮像手段で撮像され、デジタル化された時系列的に連続するデジタル画像を記憶するデジタル画像記憶手段と、
前記記憶された時系列のデジタル画像より、所定画像エリア内に位置する各画素の輝度値を時系列的に読み出し、所定時間毎の各画素の輝度の時間変動分散値を計算する画素分析手段と、
前記分散値を上記デジタル画像の画素に対応させて時系列的に記憶する画素分析結果記憶手段と、
前記分散値の時系列の変動状態を判別して、その分散値を計算した画素の状態を少なくとも「動状態」「人候補」「背景」の3状態に識別する画素状態識別手段と、
画素状態識別結果を上記デジタル画像の画素に対応させて時系列的に記憶する画素状態識別結果記憶手段と、
前記識別した「人候補」画素と、これに近接又は連続する「動状態」画素を合わせて人候補領域を作成する人候補領域作成手段と、
人候補領域作成結果を上記デジタル画像の画素に対応させて記憶する人候補領域作成結果記憶手段と、
前記人候補領域の特徴を判別し人領域を検出する人領域検出手段と、
検出された人の位置又は人数などの人検出データを出力する人検出データ出力手段と、を備えることを特徴とする人検出装置。
A human detection device for detecting a person by performing image processing on a captured image,
Imaging means for sequentially imaging the movement of a person in a predetermined area in time series;
Digital image storage means for storing digital images that are captured by the imaging means and digitized in time series; and
Pixel analysis means for reading out the luminance value of each pixel located in a predetermined image area in a time series from the stored time-series digital image and calculating a time variation variance value of the luminance of each pixel every predetermined time; ,
Pixel analysis result storage means for storing the variance values in time series in correspondence with the pixels of the digital image;
A pixel state identifying means for discriminating a time-series variation state of the dispersion value and identifying at least three states of a moving state, a human candidate, and a background as a state of the pixel for which the dispersion value is calculated;
Pixel state identification result storage means for storing pixel state identification results in time series in correspondence with the pixels of the digital image;
Human candidate area creating means for creating a human candidate area by combining the identified "human candidate" pixel and a "moving state" pixel adjacent or continuous thereto;
Human candidate region creation result storage means for storing the human candidate region creation result in correspondence with the pixel of the digital image;
Human area detection means for determining the characteristics of the human candidate area and detecting the human area;
And a human detection data output means for outputting human detection data such as the position or number of detected persons.
前記人検出データを用いて照明及び/又は空調などの環境調節機器を制御する環境制御手段をさらに備えたことを特徴とする請求項7記載の人検出装置。8. The human detection apparatus according to claim 7, further comprising environmental control means for controlling environmental adjustment equipment such as lighting and / or air conditioning using the human detection data.
JP2003048311A 2003-02-25 2003-02-25 Human detection method and human detection device Expired - Fee Related JP4218368B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003048311A JP4218368B2 (en) 2003-02-25 2003-02-25 Human detection method and human detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003048311A JP4218368B2 (en) 2003-02-25 2003-02-25 Human detection method and human detection device

Publications (2)

Publication Number Publication Date
JP2004258927A JP2004258927A (en) 2004-09-16
JP4218368B2 true JP4218368B2 (en) 2009-02-04

Family

ID=33114297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003048311A Expired - Fee Related JP4218368B2 (en) 2003-02-25 2003-02-25 Human detection method and human detection device

Country Status (1)

Country Link
JP (1) JP4218368B2 (en)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7515737B2 (en) 2004-11-30 2009-04-07 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP4610005B2 (en) * 2005-07-08 2011-01-12 財団法人電力中央研究所 Intruding object detection apparatus, method and program by image processing
JP4578353B2 (en) * 2005-08-25 2010-11-10 三洋電機株式会社 Object recognition device
JP4159572B2 (en) * 2005-09-15 2008-10-01 学校法人帝京大学 Abnormality notification device and abnormality notification method
JP4631806B2 (en) 2006-06-05 2011-02-16 日本電気株式会社 Object detection apparatus, object detection method, and object detection program
US8472715B2 (en) 2007-10-26 2013-06-25 Panasonic Corporation Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus
JP4966820B2 (en) * 2007-10-29 2012-07-04 パナソニック株式会社 Congestion estimation apparatus and method
JP2009181220A (en) * 2008-01-29 2009-08-13 Chube Univ Object detector
JP5430247B2 (en) * 2009-06-23 2014-02-26 三菱電機ビルテクノサービス株式会社 Air conditioning equipment controller
JP2011107802A (en) * 2009-11-13 2011-06-02 Hochiki Corp Control system
JP4947136B2 (en) * 2009-12-25 2012-06-06 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP5430492B2 (en) * 2010-05-18 2014-02-26 日本電信電話株式会社 Image processing apparatus, image processing method, program, and recording medium
JP5387595B2 (en) * 2011-02-24 2014-01-15 新日鐵住金株式会社 Person monitoring device, person monitoring method, and computer program
JP2014154129A (en) * 2013-02-14 2014-08-25 Fujita Corp Outfit recognition system
JP6216596B2 (en) * 2013-10-02 2017-10-18 株式会社関電エネルギーソリューション Image processing apparatus, imaging apparatus, air conditioning system, and program
JP6425261B2 (en) * 2014-05-22 2018-11-21 学校法人慶應義塾 Behavior detection system and method using infrared array sensor
JP6555617B2 (en) * 2015-12-16 2019-08-07 パナソニックIpマネジメント株式会社 Human detection system
JP6919080B2 (en) 2018-05-04 2021-08-11 グーグル エルエルシーGoogle LLC Selective detection of visual cues for automated assistants
US20220024718A1 (en) * 2018-12-21 2022-01-27 Inventio Ag Registration of users of a passenger transport system
WO2020217685A1 (en) * 2019-04-25 2020-10-29 パナソニックIpマネジメント株式会社 Area determination system, area determination method, and program
US11488457B2 (en) 2020-06-08 2022-11-01 Zurn Industries, Llc Cloud-connected occupancy lights and status indication
CN112101090B (en) * 2020-07-28 2023-05-16 四川虹美智能科技有限公司 Human body detection method and device
US11153945B1 (en) 2020-12-14 2021-10-19 Zurn Industries, Llc Facility occupancy detection with thermal grid sensor
US11543791B1 (en) 2022-02-10 2023-01-03 Zurn Industries, Llc Determining operations for a smart fixture based on an area status
US11555734B1 (en) 2022-02-18 2023-01-17 Zurn Industries, Llc Smart and cloud connected detection mechanism and real-time internet of things (IoT) system management
US11514679B1 (en) * 2022-02-18 2022-11-29 Zurn Industries, Llc Smart method for noise rejection in spatial human detection systems for a cloud connected occupancy sensing network
JPWO2023190686A1 (en) * 2022-03-31 2023-10-05

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3490466B2 (en) * 1992-02-21 2004-01-26 株式会社東芝 Image monitoring device and elevator control device using the image monitoring device
JPH0855220A (en) * 1994-08-12 1996-02-27 N T T Data Tsushin Kk System and method for moving body extraction processing
JP3625910B2 (en) * 1995-09-11 2005-03-02 松下電器産業株式会社 Moving object extraction device
JP3190833B2 (en) * 1996-08-23 2001-07-23 日本電信電話株式会社 Moving object counting method
JP4267171B2 (en) * 1999-05-10 2009-05-27 本田技研工業株式会社 Pedestrian detection device
JP4623402B2 (en) * 2000-07-13 2011-02-02 富士通株式会社 Fire detection equipment

Also Published As

Publication number Publication date
JP2004258927A (en) 2004-09-16

Similar Documents

Publication Publication Date Title
JP4218368B2 (en) Human detection method and human detection device
KR101822924B1 (en) Image based system, method, and program for detecting fire
JP2022075697A (en) Guiding system, guiding method, and control apparatus
JP5603403B2 (en) Object counting method, object counting apparatus, and object counting program
US6486778B2 (en) Presence detector and its application
KR101788269B1 (en) Method and apparatus for sensing innormal situation
US20130113932A1 (en) Video imagery-based sensor
KR20110034545A (en) Imaging processing device and imaging processing method
US20120019168A1 (en) Illumination control system and method for controlling illumination
JPH056500A (en) Moving body and equipment control system
JP2005504457A (en) Motion detection by image alignment
JP6041515B2 (en) Image processing apparatus and image processing method
JP2005259173A (en) Human detector, human detecting method and program
JP2011137589A (en) Air conditioner and control device of the same
EP3540716B1 (en) Information processing device, information processing method, and recording medium
JP2009103328A (en) Air conditioner
JP3414634B2 (en) People counting system
JP2002293484A (en) Elevator control device
JP2009294887A (en) Construction facility control system and program
JP2009294888A (en) Building facility information report system, and program
KR102464196B1 (en) Big data-based video surveillance system
JP2007243270A (en) Video image surveillance system and method therefor
KR102482545B1 (en) AI-based path prediction method
JPH11311682A (en) In-room monitor
JP2020071717A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081021

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081103

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees