JP4400527B2 - 共入り検出装置 - Google Patents

共入り検出装置 Download PDF

Info

Publication number
JP4400527B2
JP4400527B2 JP2005221822A JP2005221822A JP4400527B2 JP 4400527 B2 JP4400527 B2 JP 4400527B2 JP 2005221822 A JP2005221822 A JP 2005221822A JP 2005221822 A JP2005221822 A JP 2005221822A JP 4400527 B2 JP4400527 B2 JP 4400527B2
Authority
JP
Japan
Prior art keywords
image
distance
distance image
area
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005221822A
Other languages
English (en)
Other versions
JP2006064695A (ja
Inventor
裕之 藤井
啓史 松田
直哉 類家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Corp
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Works Ltd filed Critical Panasonic Corp
Priority to JP2005221822A priority Critical patent/JP4400527B2/ja
Publication of JP2006064695A publication Critical patent/JP2006064695A/ja
Application granted granted Critical
Publication of JP4400527B2 publication Critical patent/JP4400527B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Image Processing (AREA)

Description

本発明は、検出エリアにおける1又はそれ以上の物理対象を個々に検出するための個体検出器装備する共入り検出装置に関するものである。
最先端の入/退管理システムは、バイオメトリック情報を利用することで正確な識別を可能にするが、そのようなハイテクによるセキュリティでさえもすり抜ける簡単な方法が存在する。即ち、認証によって正当と認められた個体(例えば、従業員又は住人等)が、解錠されたドアを通って入るときに、侵入が、いわるゆる“共入り”によってそのドアが開いている間、許される。
特許文献1記載の従来技術システムは、人の三次元シルエットの数を計数することによって共入りを検出する。そのシルエットは、2又はそれ以上の視点に対応する視体積の共通領域(visual hull) の内側に物理対象が存在するという原理に基づく視体積交差法によって、コンピュータ上で仮想的に具現化される。即ち、その方法は、2又はそれ以上のカメラを使用し、そして各カメラの出力から得られる二次元のシルエットを実空間に仮想的に投影して、物理対象全周の形状に対応する三次元シルエットを構成する。
しかしながら、上記システムでは、視体積交差法のために2又はそれ以上のカメラを使用する必要がある。また、システムは、2つのカメラの一方によって人の顔をとるが、視体積交差法は検出エリア(1又はそれ以上の物理対象)を各カメラの視界領域に収めることを要するので、システムは、顔又はその正面が視界領域内にある間、三次元シルエットを構成することができない。このため、検出エリアにおける1又はそれ以上の物理対象の移動の軌跡を追跡することが困難となる。この問題は、カメラを加えることによって解決可能であるが、システムの設置面積及びコストの増大につながる。特に、カメラの数は、ドアの数が増大するにつれて、勢い増大する。
さらに、視体積交差法は、重なり合う物理対象を分離するための技術ではないので、重なり合う物理対象で三次元シルエットが構成されるときに別の課題を持つ。従来技術システムは、一つの物理対象に対応する基準サイズによって、2又はそれ以上の物理対象が重なっている状態を検出することができるが、人及び荷物が重なりあっている状態を2又はそれ以上の人が重なりあっている状態と区別することができない。前者は、警報を発する必要がないが、後者は警報を発する必要がある。また、従来技術システムは、予め記録された背景画像と現在の画像との差分を取ることによりノイズを除去するが、壁又は植物等の静的な物理対象(以下「静的ノイズ」という)を除去することができても、荷物及び台車等の動的な物理対象(以下「動的ノイズ」という)を除去することができない。
特開2004−124497号公報
そこで、本発明の的は、人及び動的ノイズが重なりあっている状態を2又はそれ以上の人が重なりあっている状態と区別することにある。
上記課題を解決するために、請求項1の発明は、検出エリアに面して配置され、距離画像を生成するものであって、その距離画像の各画像要素は、1又はそれ以上の物理対象が前記エリアにあるとき、その1又はそれ以上の物理対象までの各距離値をそれぞれ含む、距離画像センサと、前記センサによって生成された距離画像に基づいて、前記エリアにおける1又はそれ以上の物理対象を個々に検出する対象検出段とを備え、前記距離画像センサは、下方の前記検出エリアに対して下向きに面して配置され、前記対象検出段は、前記エリアにおける検出されるべき1又はそれ以上の物理対象を、前記距離画像から得られる、その検出されるべき1又はそれ以上の物理対象の特定又は各高度における部分のデータに基づいて、個々に検出する個体検出器と、共入り検出段とを備え、前記距離画像センサは、前記距離画像を連続的に生成し、前記共入り検出段は、共入り警戒時に、前記対象検出段によって検出された1又はそれ以上の人の移動軌跡を個々に追跡し、2又はそれ以上の人が所定の方向に前記検出エリアに又はから移動したときに共入りの発生を検出して、警報信号を出力することを特徴とする
この構成では、検出エリアにおける1又はそれ以上の物理対象が、距離画像センサによって生成された距離画像に基づいて、個々に検出されるので、そのエリアにおける1又はそれ以上の物理対象を、その1又はそれ以上の物理対象を検出するための構成要素(センサ)の数を増やすことなく、個々に検出することができる。例えば、動的ノイズが現れないような高度における物理対象の部分を検出したり、検出されるべき各物理対象の所定部分を検出したりすることができる。この結果、人及び動的ノイズが重なりあっている状態を2又はそれ以上の人が重なりあっている状態と区別することができる。また、2又はそれ以上の人が所定方向に検出エリアに又はから移動したときに警報信号が出力されるので、共入りを抑制することができる。また、複数の人を検出しても、2又はそれ以上の人が所定の方向に検出エリアに又はから移動しないときには警報信号が出力されないので、誤報を防止することができる
上記課題を解決するために、請求項2の発明は、検出エリアに面して配置され、距離画像を生成するものであって、その距離画像の各画像要素は、1又はそれ以上の物理対象が前記エリアにあるとき、その1又はそれ以上の物理対象までの各距離値をそれぞれ含む、距離画像センサと、前記センサによって生成された距離画像に基づいて、前記エリアにおける1又はそれ以上の物理対象を個々に検出する対象検出段とを備え、前記距離画像センサは、下方の前記検出エリアに対して下向きに面して配置され、前記対象検出段は、前記エリアにおける検出されるべき1又はそれ以上の物理対象を、前記距離画像から得られる、その検出されるべき1又はそれ以上の物理対象の特定又は各高度における部分のデータに基づいて、個々に検出する個体検出器と、共入り検出段とを備え、
前記距離画像センサは、前記距離画像を連続的に生成し、
前記共入り検出段は、前記対象検出段によって検出された1又はそれ以上の人の入及び出とその入及び出の各方向とを監視し、共入り警戒用に設定された規定時間内に、2又はそれ以上の人が所定方向に前記検出エリアに又はから移動したときに共入りの発生を検出して、警報信号を出力することを特徴とする。この構成では、検出エリアにおける1又はそれ以上の物理対象が、距離画像センサによって生成された距離画像に基づいて、個々に検出されるので、そのエリアにおける1又はそれ以上の物理対象を、その1又はそれ以上の物理対象を検出するための構成要素(センサ)の数を増やすことなく、個々に検出することができる。例えば、動的ノイズが現れないような高度における物理対象の部分を検出したり、検出されるべき各物理対象の所定部分を検出したりすることができる。この結果、人及び動的ノイズが重なりあっている状態を2又はそれ以上の人が重なりあっている状態と区別することができる。また、2又はそれ以上の人が所定方向に検出エリアに又はから移動したときに警報信号が出力されるので、共入りを抑制することができる。また、複数の人を検出しても、2又はそれ以上の人が所定方向に検出エリアに又はから移動しないときには警報信号が出力されないので、誤報を防止することができる
請求項3の発明は、請求項1又は2の発明において、対象検出段は、前記センサから予め得られた距離画像である背景距離画像と前記センサから得られた現在の距離画像との差分に基づいて、前景距離画像を生成し、その前景距離画像に基づいて、前記エリアにおける検出されるべき1又はそれ以上の物理対象としての1又はそれ以上の人を個々に検出することを特徴とする。この発明によれば、前景距離画像が静的ノイズを含まないので、静的ノイズを除去することができる。
請求項4の発明は、請求項3の発明において、対象検出段は、前記現在の距離画像の各画像要素から特定の画像要素を抽出することによって、前記前景距離画像を生成し、その特定の画像要素は、前記現在の距離画像の画像要素を背景距離画像の対応する画像要素から引いて得られる距離差分が、所定の距離しきい値よりも大きいときに、抽出されることを特徴とする。この構成では、背景距離画像に該当する位置から所定の距離しきい値に該当する距離前方の位置よりも後方にある1又はそれ以上の物理対象を除去することができるので、動的ノイズ(例えば、荷物及び台車等)が、所定の距離しきい値が適切な値に設定されるときに、除去される。その結果、人及び動的ノイズが重なりあっている状態を2又はそれ以上の人が重なりあっている状態と区別することができる。
請求項5の発明は、請求項4の発明において、距離画像センサは、光学系と、その光学系を介して前記検出エリアに面して配置される2次元感光アレイとで構成されるカメラ構造を持ち、対象検出段は、予め記録された前記距離画像センサに対するカメラ・キャリブレーション・データに基づいて、前記カメラ構造に依存する前景距離画像のカメラ座標系を直交座標系に変換して、物理対象の存在/不存在の各位置を示す直交座標変換画像を生成することを特徴とする
請求項6の発明は、請求項5の発明において、対象検出段は、直交座標変換画像の直交座標系を、実空間上に仮想的に設定されるワールド座標系に変換して、物理対象の存在/不存在の各位置を実位置及び実寸で示すワールド座標変換画像を生成することを特徴とする。この構成では、直交座標変換画像の直交座標系が、例えば、センサの位置及び俯角等のデータに基づいて、回転及び平行移動等によってワールド座標系に変換される結果、ワールド座標変換画像における1又はそれ以上の物理対象のデータを実位置及び実寸(距離、大きさ)で取り扱うことができる。
請求項7の発明は、請求項6の発明において、対象検出段は、ワールド座標変換画像を平行投影で所定平面上に投影して、ワールド座標変換画像における前記平面から見た各画像要素から構成される平行投影画像を生成することを特徴とする。この構成では、平行投影画像を生成することによって、ワールド座標変換画像のデータ量を削減することができる。また例えば、平面が天井側の水平面であるとき、平行投影画像から、検出されるべき1又はそれ以上の人のデータを個々に抽出することができる。平面が垂直面であるとき、平行投影画像から人の側面の2次元シルエットを得ることができ、そのシルエットに対応するパターンを使用すれば、平行投影画像に基づいて人を検出することができる。
請求項8の発明は、請求項5から7のいずれかの発明において、対象検出段は、前記画像から1又はそれ以上の物理対象の部分に該当するサンプリング・データを抽出し、そして、そのデータが、人の部位に基づいて予め記録された基準データに該当するか否かを識別して、それぞれそのサンプリング・データに対応する物理対象が人であるか否かを判別することを特徴とする。この構成では、基準データは、静的ノイズ及び動的ノイズ(例えば、荷物及び台車等)が除去された画像においてほぼ人特徴のデータの役割を果たすので、検出エリアにおける1又はそれ以上の人を個々に検出することができる。
請求項9の発明は、請求項8の発明において、サンプリング・データは、前記変換画像に仮想的に表される1又はそれ以上の物理対象の部分の体積、又は幅と奥行きと高さとの比であり、基準データは、1又はそれ以上の人の部位に基づいて予め記録され、その部位の体積、又は幅と奥行きと高さとの比についての値又は値の範囲であることを特徴とする。この発明によれば、検出エリアにおける人の数を検出することができる。
請求項10の発明は、請求項8の発明において、サンプリング・データは、平行投影画像に仮想的に表される1又はそれ以上の物理対象の部分の面積、又は幅と奥行きとの比であり、基準データは、1又はそれ以上の人の部位に基づいて予め記録され、その部位の面積、又は幅と奥行きとの比についての値又は値の範囲であることを特徴とする。この発明によれば、検出エリアにおける人の数を検出することができる。
請求項11の発明は、請求項8の発明において、サンプリング・データは、前記画像に仮想的に表される1又はそれ以上の物理対象の部分のパターンであり、基準データは、1又はそれ以上の人の部位に基づいて予め記録された少なくとも一つのパターンであることを特徴とする。この構成では、例えば、人の肩からその頭部までの部分に対応するパターンを、基準データに選定することによって、検出エリアにおける人の数を検出することができ、また人の動く手の影響も排除することができる。しかも、人の頭部のパターンを、基準データに選定することによって、各人の体格に関係なく、1又はそれ以上の人を個々に検出することができる。
請求項12の発明は、請求項5又は6の発明において、距離画像センサは、強度変調光を検出エリアに発する光源を更に含み、画像要素毎の受光強度に基づいて、距離画像に加えて強度画像を生成し、対象検出段は、前記変換画像に基づいて、1又はそれ以上の物理対象の部分に該当するサンプリング・データを抽出し、そして強度画像に基づいて、サンプリング・データに該当する物理対象の部分に所定強度よりも低い箇所があるか否かを判別することを特徴とする。この構成では、所定強度よりも低い物理対象の部分を検出することができる。
請求項13の発明は、請求項5又は6の発明において、距離画像センサは、強度変調赤外光を検出エリアに発する光源を更に含み、前記エリアからの前記赤外光に基づいて、距離画像に加えて赤外光の強度画像を生成し、対象検出段は、前記変換画像に基づいて、1又はそれ以上の物理対象の部分に該当するサンプリング・データを抽出し、そして強度画像に基づいて、サンプリング・データに該当する物理対象の部分からの前記赤外光の平均強度が所定強度よりも低いか否かを識別して、それぞれそのサンプリング・データに対応する物理対象の部分が人の頭部であるか否かを判別することを特徴とする。この構成では、赤外光に対する人の頭髪の反射率は、通常、人の肩側のそれよりも低いので、人の頭部を検出することができる。
請求項14の発明は、請求項8から13のいずれかの発明において、対象検出段は、人として判別された物理対象の数を基に、平行投影画像における人として判別された物理対象の部分の位置をクラスタの構成要素に割り当て、クラスタリングのK−平均アルゴリズムによって得られる分割領域に基づいて、前記物理対象の数を検証することを特徴とする。この構成では、人として判別された物理対象の数を検証することができる上、その人の位置を推定することができる。
請求項15の発明は、請求項1又は2の発明において、対象検出段は、距離画像の各画像要素から特定の画像要素を抽出することによって、前景距離画像を生成し、その前景距離画像に基づいて、前記エリアにおける検出されるべき1又はそれ以上の物理対象としての1又はそれ以上の人を個々に検出し、特定の画像要素は、距離画像の画像要素の距離値が所定の距離しきい値よりも小さいときに、抽出されることを特徴とする。この構成では、距離画像センサの位置とそのセンサから(所定の距離しきい値に対応する距離)離れた前方の位置との間の物理対象を検出することができるので、所定の距離しきい値が適切な値に設定されるとき、人及び動的ノイズ(例えば、荷物及び台車等)が重なりあっている状態を2又はそれ以上の人が重なりあっている状態と区別することができる。
請求項16の発明は、請求項1又は2の発明において、対象検出段は、距離画像の距離値分布の極小値を持つ画像要素付近の距離画像が、人の部位に基づいて予め記録された特定形状及びその特定形状の大きさに該当するか否かを識別して、それぞれ前記極小値を持つ画像要素付近の距離画像に対応する物理対象が人であるか否かを判別することを特徴とする。この構成では、人及び動的ノイズ(例えば、荷物及び台車等)が重なりあっている状態を2又はそれ以上の人が重なりあっている状態と区別することができる。
請求項17の発明は、請求項1又は2の発明において、対象検出段は、距離画像の各距離値から分布画像を生成し、その分布画像に基づいて、検出エリアにおける1又はそれ以上の物理対象を個々に検出し、分布画像は、1又はそれ以上の物理対象が検出エリアにあるとき、1又はそれ以上の分布領域を含み、分布領域は、距離画像における所定の距離しきい値よりも小さい距離値を持つ各画像要素から形成され所定の距離しきい値は、距離画像の各距離値の極小値に所定の距離値を加算して得られることを特徴とする。この構成では、検出エリアにおける検出されるべき1又はそれ以上の人の頭部を検出することができるので、人及び動的ノイズ(例えば、荷物及び台車等)が重なりあっている状態を2又はそれ以上の人が重なりあっている状態と区別することができる
本発明によれば、人及び動的ノイズが重なりあっている状態を2又はそれ以上の人が重なりあっている状態と区別することができる
図1は、本発明による第1参考例の共入り検出装置を装備する管理システムを示す。
管理システムは、図1及び2に示されるように、少なくとも1つの共入り検出装置1、セキュリティ装置2及び少なくとも1つの入力装置3を、管理されるべき部屋のドア20毎に備え、また各共入り検出装置1、各セキュリティ装置2及び各入力装置3と通信する制御装置4を備える。なお、入管理システムに限らず、本発明の管理システムは、入/退管理システムでもよい。
セキュリティ装置2は、オート・ロック機能を有し、制御装置4からの解錠制御信号に従って、ドア20を解錠する電子錠である。電子錠は、ドア20を施錠した後、閉通知信号を制御装置4に送信する。
一代替例において、セキュリティ装置2は、自動ドア・システムにおける開閉制御装置である。開閉制御装置は、制御装置4からの開又は閉制御信号に従って、それぞれドア20を開き又は閉じ、ドア20を閉じた後、閉通知信号を制御装置4に送信する。
入力装置3は、ドア20外側の隣の壁に設置され、IDカードのID情報を読み取って制御装置4に送信するカード・リーダである。管理システムが入/退管理システムである場合には、別の入力装置3、例えばカード・リーダがドア20内側の管理されるべき部屋の壁にも設置される。
制御装置4は、CPU及び予め登録された各ID情報及びプログラム等を記憶する記憶装置等により構成され、システム全般の制御を実行する。
例えば、装置4は、入力装置3からのID情報が、記憶装置に予め記録されたID情報と一致したとき、対応するセキュリティ装置2に解錠制御信号を送信し、また対応する共入り検出装置1に入許可信号を送信する。また、装置4は、セキュリティ装置2から閉通知信号を受信したとき、対応する共入り検出装置1に入禁止信号を送信する。
セキュリティ装置2が開閉制御装置である代替例では、装置4は、入力装置3からのID情報が、記憶装置に記録されたID情報と一致したとき、対応する開閉制御装置に開制御信号を送信し、一定時間後、対応する開閉制御装置に閉制御信号を送信する。また、装置4は、開閉制御装置から閉通知信号を受信したとき、対応する共入り検出装置1に入禁止信号を送信する。
また、装置4は、共入り検出装置1から警報信号を受信したとき、例えば、管理者への通知及びカメラ(図示せず)の作動時間の延長等の所定の処理を実行し、警報信号を受信した後、所定の解除操作が行われるか、所定時間が経過すれば、対応する共入り検出装置1に解除信号を送信する。
共入り検出装置1は、距離画像センサ10及び対象検出段16により構成される個体検出器、共入り検出段17及び警報段18を備える。対象検出段16及び共入り検出段17は、CPU及びプログラム等を記憶する記憶装置等により構成される。
距離画像センサ10は、下方の検出エリアA1に対して下向きに面して配置され、距離画像を連続的に生成する。1又はそれ以上の物理対象がエリアA1にあるとき、距離画像の各画像要素は、図3に示されるように、その1又はそれ以上の物理対象までの各距離値をそれぞれ含む。例えば、図4(a)に示すように、人B1及び台車C1が検出エリアにあるときには、図4(b)に示すような距離画像D1が得られる。
第1参考例では、センサ10は、強度変調赤外光をエリアA1に発する光源(図示せず)を含み、レンズ及び赤外線透過フィルタ等の光学系と、光学系を介してエリアA1に面して配置される2次元感光アレイとにより構成されるカメラ構造(図示せず)を持つ。またカメラ構造を持つセンサ10は、エリアA1からの赤外光に基づいて、距離画像に加えて赤外光の強度画像を生成する。
対象検出段16は、エリアA1における検出されるべき1又はそれ以上の物理対象としての1又はそれ以上の人を、センサ10によって生成された距離画像から得られる、その検出されるべき1又はそれ以上の人の特定又は各高度における部分(部位)に基づいて、個々に検出する。このため、対象検出段16は、以下の各処理を実行する。
第1の処理では、対象検出段16は、図4(c)に示されるように、センサ10から予め得られた距離画像である背景距離画像D0とセンサ10から得られた現在の距離画像D1との差分に基づいて、前景距離画像D2を生成する。背景距離画像D0は、ドア20を閉じた状態で取られる。また、背景距離画像は、距離値のばらつきを抑えるため、時間及び空間方向の平均距離値を含んでもよい。
第1の処理を更に詳述すると、前景距離画像は、現在の距離画像の各画像要素から特定の画像要素を抽出することによって、生成される。その特定の画像要素は、現在の距離画像の画像要素を背景距離画像の対応する画像要素から引いて得られる距離差分が、所定の距離しきい値よりも大きいときに、抽出される。このとき、前景距離画像は静的ノイズを含まないので、静的ノイズが除去される。また、背景距離画像に該当する位置から所定の距離しきい値に該当する距離前方の位置よりも後方にある1又はそれ以上の物理対象を除去することができるので、所定の距離しきい値が適切な値に設定されるとき、図4(c)に示されるように、動的ノイズとしての台車C1が除去される。また、ドア20が開いていたとしても、そのドア20の後方の物理対象も除去される。従って、人及び動的ノイズ(台車C1及びドア20後方の物理対象等)が重なりあっている状態を2又はそれ以上の人が重なりあっている状態と区別することができる。
第2の処理では、対象検出段16は、図5に示されるように、予め記録されたセンサ10に対するカメラ・キャリブレーション・データ(例えば、画素ピッチ及びレンズ歪等)に基づいて、カメラ構造に依存する前景距離画像D2のカメラ座標系を3次元直交座標系(x,y,z)に変換して、物理対象の存在/不存在の各位置を示す直交座標変換画像E1を生成する。即ち、直交座標変換画像E1の各画像要素(xi,xj,xk)は、“TRUE”又は“FALSE”で表される。“TRUE”は、物理対象の存在を示し、“FALSE”はその不存在を示す。
第2の処理の代替例では、前景距離画像の画像要素が“TRUE”に該当するとき、その画像要素値が可変高度のしきい値よりも小さければ、その画像要素に対応する直交座標変換画像の画像要素に“FALSE”を格納する。これにより、その可変高度のしきい値の高度よりも低い動的ノイズを適応的に除去することができる。
第3の処理では、対象検出段16は、予め記録されたカメラ・キャリブレーション・データ(例えば、センサ10の位置、俯角及び画素ピッチの実距離等)に基づいて、回転及び平行移動等によって、直交座標変換画像の直交座標系を、実空間上に仮想的に設定される3次元ワールド座標系に変換して、物理対象の存在/不存在の各位置を実位置及び実寸で示すワールド座標変換画像を生成する。この場合、ワールド座標変換画像における1又はそれ以上の物理対象のデータを実位置及び実寸(距離、大きさ)で取り扱うことができる。
第4の処理では、対象検出段16は、ワールド座標変換画像を、平行投影で水平面又は垂直面等の所定平面上に投影して、ワールド座標変換画像における所定平面から見た各画像要素から構成される平行投影画像を生成する。第1参考例では、図5に示されるように、平行投影画像F1は、天井面側の水平面から見た各画像要素から構成され、検出されるべき物理対象を示す各画像要素は、最高高度の位置にある。
第5の処理では、対象検出段16は、図6に示されるように、平行投影画像F1から対象抽出エリアA2内の1又はそれ以上の物理対象の部分(Blob)に該当するサンプリング・データを抽出してラベリング処理を行い、サンプリング・データ(物理対象の部分)の位置(例えば重心位置)を特定する。サンプリング・データがエリアA2の境界に重なる場合、そのデータはエリアA2内外の各面積のうち大きい面積のエリアに属するように処理してもよい。図6の例では、エリアA2外の人B2に該当するサンプリング・データは除外される。この場合、対象抽出エリアA2内の物理対象の部分だけを抽出することができるので、例えばガラス戸等への映り込みによる動的ノイズを除去することができ、また管理されるべき部屋に合った個体検出が可能である。
次いで、第6の処理及び第7の処理が並列で実行される。第6,第7の処理では、対象検出段16は、第5の処理で抽出されたサンプリング・データが、1又はそれ以上の人の部位に基づいて予め記録された基準データに該当するか否かを識別して、それぞれそのサンプリング・データに対応する物理対象が人であるか否かを判別する。
第6の処理では、図7(a)及び(b)に示されるように、サンプリング・データは、平行投影画像に仮想的に表される1又はそれ以上の物理対象の部分の面積S、又は幅及び奥行きの比である。比は、物理対象の部分を含む外接四角形の幅W及び奥行きDの比(W:D)である。基準データは、1又はそれ以上の人の部位に基づいて予め記録され、その部位の面積、又は幅及び奥行きの比についての値又は値の範囲である。これにより、検出エリアA1における対象抽出エリアA2内の人の数を検出することができる。
第7の処理では、図8(a)に示されるように、サンプリング・データは、平行投影画像に仮想的に表される1又はそれ以上の物理対象の部分の2次元パターンである。基準データは、図8(b)及び(c)に示されるように、1又はそれ以上の人の部位に基づいて予め記録された少なくとも一つの2次元パターンである。第1参考例では、図8(b)及び(c)に示されるようなパターンが使用され、パターン・マッチングにより得られる相関値が所定値より大きければ、そのパターンに対応する人数が加算される。これにより、例えば、人の肩とその頭部との間の各パターンを、基準データに選定することによって、検出エリアにおける人の数を検出することができ、また人の動く手の影響も排除することができる。しかも、人の頭部の2次元輪郭パターンを、基準データに選定することによって、各人の体格に関係なく、1又はそれ以上の人を個々に検出することができる。
第1参考例では、第6の処理で計数された人数及び第7の処理で計数された人数が同一であるとき、次の処理が第1の処理に戻される一方、それらの双方が異なるとき、第8から第11の処理が更に実行される。
第8の処理では、対象検出段16は、3次元の直交座標変換画像又は3次元のワールド座標変換画像の各画像要素から所定平面上の各画像要素を抽出することによって、断面画像を生成する。図9に示されるように、第1の処理における距離しきい値の高度から上方に各高度(例えば、10cm)毎に水平面の各画像要素を抽出することによって、水平断面画像G1−G5が生成される。そして、対象検出段16は、水平断面画像を生成する毎に、水平断面画像から1又はそれ以上の物理対象の部分に該当するサンプリング・データを抽出して記録する。
第9処理では、対象検出段16は、第8の処理で抽出されたサンプリング・データが、1又はそれ以上の人の部位に基づいて予め記録された基準データに該当するか否かを識別して、それぞれサンプリング・データに対応する物理対象が人であるか否かを判別する。サンプリング・データは、水平断面画像に仮想的に表される1又はそれ以上の物理対象の部分の断面積である。基準データは、1又はそれ以上の人の頭部の断面積についての値又は値の範囲である。対象検出段16は、水平断面画像が生成される毎に、サンプリング・データが基準データよりも小さくなったか否かを識別し、サンプリング・データが基準データよりも小さくなったときに(G4,G5)、その極大高度のサンプリング・データを人の頭部に該当するデータとして計数する。
第10の処理では、対象検出段16は、水平断面画像の高度が所定高度に達した後、水平断面画像が生成される毎に、センサ10によって生成された強度画像に基づいて、サンプリング・データに該当する物理対象の部分からの赤外光の平均強度が所定強度よりも低いか否かを識別して、それぞれそのサンプリング・データに対応する物理対象の部分が人の頭部であるか否かを判別する。サンプリング・データに対応する物理対象の部分が人の頭部であるとき、そのサンプリング・データが人の頭部に該当するデータとして計数される。赤外光に対する人の頭髪の反射率は、通常、人の肩側のそれよりも低いので、所定強度が適切な値に設定されるとき、人の頭部を検出することができる。
第11の処理では、対象検出段16は、図10(a)に示されるように、第9の処理で判別された極大高度となる人B3の頭部の位置B31及び第10の処理で判別された人B3の頭部の位置B32が、互いに同一であれば、人B3は直立し、頭髪を有していると判定する。そうでなければ、対象検出段16は、図10(a)及び(b)に示されるように、第9の処理のみで極大高度となる人B4の頭部の位置B41が判別されれば、人B4は直立し、頭髪を有していないか着帽していると判定し、図10(b)に示されるように、第10の処理のみで人B5の頭部の位置B52が判別されれば、人B5は頭部を傾け、頭髪を有していると判定する。そして対象検出段16は人数を集計する。
図1の共入り検出段17は、制御装置4から入許可信号を受信した後、対象検出段16により検出された人数に基づいて、共入りが発生したか否かを検出する。第1参考例では、共入り検出段17は、対象検出段16により検出された人数が2以上であれば、共入りが発生したと検出して、警報信号を、装置4から解除信号を受信するまで装置4及び警報段18に送信する。また、共入り検出段17は、警報信号を装置4及び警報段18に送信していなければ、制御装置4から入禁止信号を受信した後、待機モードに移行する。警報段18は、共入り検出段17から警報信号を受信している間、警報を出す。
次に、第1参考例の動作を説明する。待機モードにおいて、入力装置3がIDカードのID情報を読み取ったとき、装置3はID情報を制御装置4に送信する。次いで、装置4は、ID情報が予め記録されたID情報と一致するか否かを認証し、それら双方が互いに一致したとき、対応する共入り検出装置1に入許可信号を、そして対応するセキュリティ装置2に解錠制御信号を送信する。これにより、IDカードの携帯者は、ドア20を開けて、管理されるべき部屋に入ることができる。
図11及び12を参照して、共入り検出装置1が制御装置4から入許可信号を受信した後の動作を説明する。共入り検出装置1において、距離画像及び赤外光の強度画像が距離画像センサ10によって生成される(図11のS10を参照)。
次いで、対象検出段16は、距離画像、背景距離画像及び距離しきい値に基づいて前景距離画像を生成し(S11)、前景距離画像から直交座標変換画像を生成し(S12)、直交座標変換画像からワールド座標変換画像を生成し(S13)、そしてワールド座標変換画像から平行投影画像を生成する(S14)。次いで、段16は、平行投影画像から物理対象の部分(輪郭)のデータ(サンプリング・データ)を抽出する(S15)。
対象検出段16は、ステップS16で、基準データ(人の基準部位の面積及び比についての値又は値の範囲)に基づいて、サンプリング・データ(輪郭の面積及び比)に対応する物理対象が人であるか否かを判別する。段16は、いずれかの物理対象が人として判別されれば(S16で“YES”)、ステップS17で、対象抽出エリアA2内の人数(N1)を計数し、またどの物理対象も人として判別されなければ(S16で“NO”)、ステップS18で、N1としてゼロを計数する。
また、対象検出段16は、ステップS19で、基準データ(人の基準部位のパターン)に基づいて、サンプリング・データ(輪郭のパターン)に対応する物理対象が人であるか否かを判別する。段16は、いずれかの物理対象が人として判別されれば(S19で“YES”)、ステップS20で、対象抽出エリアA2内の人数(N2)を計数し、またどの物理対象も人として判別されなければ(S19で“NO”)、ステップS21で、N2としてゼロを計数する。
次いで、共入り検出段17は、N1及びN2が互いに一致するか否かを判別する(S22)。段17は、N1及びN2が互いに一致すれば(S22で“YES”)、ステップS23で、N1又はN2に基づいて、共入りが発生したか否かを検出し、またそうでなければ(S22で“NO”)、対象検出段16による図12のステップS30に進む。
共入りが発生しているとして検出されたとき(S23で“YES”)、共入り検出段17は、警報信号を制御装置4及び警報段18に装置4から解除信号を受信するまで送信する(S24,S25)。これにより、警報段18が警報を出す。共入り検出段17が装置4から解除信号を受信した後、共入り検出装置1は待機モードに戻る。
共入りが発生しているとして検出されなかったとき(S23で“NO”)、共入り検出装置1は、共入り検出段17が制御装置4から入禁止信号を受信すれば(S26で“YES”)、待機モードに戻り、またそうでなければ(S26で“NO”)、ステップS10に戻る。
図12のステップS30で、対象検出段16は、第1の処理における距離しきい値の高度から水平断面画像を生成する。次いで、段16は、ステップS31で、水平断面画像から物理対象の部分(断面の輪郭)のデータ(サンプリング・データ)を抽出し、ステップS32で、基準データ(人の頭部の断面積についての値又は値の範囲)に基づいて、サンプリング・データ(輪郭の面積)に対応する物理対象の部分が人の頭部であるか否かを判別することによって、人の頭部の位置(M1)を検出する。次いで、段16は、全ての水平断面画像が生成されれば(S33で“YES”)、ステップS35に進み、またそうでなければ(S33で“NO”)、ステップS30に戻る。
また、対象検出段16は、ステップS34で、強度画像及び所定強度に基づいて、人の頭部の位置(M2)を検出し、次いでステップS35に進む。
ステップS35で、対象検出段16は、M1をM2と比較し、双方が一致すれば(S36で“YES”)、ステップS37で、直立し、頭髪を有する人を検出する。そうではなく(S36で“NO”)、M1のみが検出されれば(S38で“YES”)、段16は、ステップS39で、直立し、頭髪を有さない人を検出する。そうではなく(S38で“NO”)、M2のみが検出されれば(S40で“YES”)、段16は、ステップS41で、頭部を傾け、頭髪を有する人を検出する。そうでなければ(S40で“NO”)、段16は、ステップS42で人を検出しない。
次いで、対象検出段16は、ステップS43で、人数を集計し、図11のステップS23に戻る。
一代替参考例において、共入り検出装置1は、ドア20の外側に設けられる。この場合、待機モードにおいて、入力装置3がIDカードのID情報を読み取って制御装置4に送信したとき、制御装置4は、共入り検出装置1を起動する。ドア20の外側において共入りの状態が発生していれば、共入り検出装置1は、警報信号を制御装置4及び警報段18に送信し、制御装置4は、共入り検出装置1からの警報信号に基づいて、IDカードのID情報に関係なくドア20のロックを維持する。これにより、共入りを防止することができる。ドア20の外側において共入りの状態が発生していなければ、制御装置4は、セキュリティ装置2に解錠制御信号を送信する。これにより、IDカードの携帯者は、ドア20を開けて、管理されるべき部屋に入ることができる。
図13は、本発明による第2参考例の共入り検出装置における対象検出段の動作説明図である。第2参考例の対象検出段は、第1の処理から第7の処理を第1参考例のそれらと同様に実行し、第2参考例の特徴として、第7の処理の後、第6の処理で計数された人数N1及び第7の処理で計数された人数N2が異なるとき、K−平均アルゴリズムのクラスタリング処理を実行する。
即ち、第2参考例の対象検出段は、人として判別された物理対象の数を基に、平行投影画像における人として判別された物理対象の部分の位置をクラスタの構成要素に割り当て、クラスタリングのK−平均アルゴリズムによって、上記人として判別された物理対象の数を検証する。
クラスタリングの分割数の初期値は、例えばN1,N2の大きい方が使用される。対象検出段は、K−平均アルゴリズムによって、各分割領域を得て、その分割領域の面積を計算し、その分割領域の面積と予め記録された人の面積との差が所定しきい値と等しいか小さいとき、その分割領域を人の部位として計数する。その差が所定しきい値より大きいとき、対象検出段は、分割数の初期値を増減してK−平均アルゴリズムを再度実行する。このK−平均アルゴリズムによれば、各人位置を推定することができる。
図14は、本発明による第3参考例の共入り検出装置における対象検出段の動作説明図である。
第3参考例の対象検出段は、図14に示されるように、第1参考例の各処理に代えて、距離画像センサ10からの距離画像の各画像要素から特定の画像要素を抽出することによって、前景距離画像D20を生成する。特定の画像要素は、距離画像の画像要素の距離値が所定の距離しきい値よりも小さいときに、抽出される。次いで、対象検出段は、前景距離画像D20に基づいて、検出エリアにおける検出されるべき1又はそれ以上の物理対象としての1又はそれ以上の人を個々に検出する。図14の例において、黒色の部分は、所定の距離しきい値よりも小さい距離値を持つ画像要素から形成され、白色の部分は、所定の距離しきい値よりも大きい距離値を持つ画像要素から形成される。
第3参考例では、距離画像センサの位置とそのセンサから(所定の距離しきい値に対応する距離)離れた前方の位置との間の物理対象を検出することができる。従って、所定の距離しきい値が適切な値に設定されるとき、人及び動的ノイズ(例えば、荷物及び台車等)が重なりあっている状態を2又はそれ以上の人が重なりあっている状態と区別することができる。図14の例では、検出エリアにおける人B6の肩から上の部位及び人B7の頭部の部位を個々に検出することができる。
図15は、本発明による第4参考例の共入り検出装置における対象検出段の動作説明図である。
第4参考例の対象検出段は、図15に示されるように、第1参考例の各処理に代えて、距離画像センサ10によって生成された距離画像の各距離値から分布画像Jを生成し、分布画像Jにおける1又はそれ以上の分布領域が、人の部位に基づいて予め記録されたデータに該当するか否かを識別して、それぞれ分布画像Jにおける1又はそれ以上の分布領域に対応する物理対象が人であるか否かを判別する。分布画像は、1又はそれ以上の物理対象が検出エリアにあるとき、1又はそれ以上の分布領域を含む。分布領域は、距離画像における所定の距離しきい値よりも小さい距離値を持つ各画像要素から形成される。所定の距離しきい値は、距離画像の各距離値の極小値に所定の距離値(例えば、平均的な顔の長さの半分程度の値)を加算して得られる。
図15の例において、分布画像Jは2値画像であり、黒色の部分は、分布領域であり、白色の部分は、距離画像における特定距離値よりも大きい各距離値から形成される。予め記録されたデータは、分布画像Jが2値画像であるので、人の部位の輪郭の面積又は直径であり、パターン・マッチングを用いる場合は、人の頭部の輪郭から得られる形状(例えば円等)のパターンである。
第4参考例では、検出エリアにおける検出されるべき1又はそれ以上の人の頭部が検出されるので、人及び動的ノイズ(例えば、荷物及び台車等)が重なりあっている状態を2又はそれ以上の人が重なりあっている状態と区別することができる。図15の例では、検出エリアにおける人B8,B9の各頭部を個々に検出することができる。
図16は、本発明による第実施形態の共入り検出装置における共入り検出段の動作説明図である。
実施形態の共入り検出段は、図16に示されるように、共入り警戒時に、対象検出段によって検出された1又はそれ以上の人の移動軌跡を個々に追跡し、2又はそれ以上の人が所定の方向に検出エリアに又はから移動したときに共入りの発生を検出して、警報信号を制御装置4及び警報段18に送信する。図16において、20は、自動ドアである。
実施形態では、所定の方向は、ドア20側における検出エリアA1の境界線を横切って検出エリアA1に移動する方向に設定される。例えば図16に示されるように、1人のB11 ,B12 ,B13 の移動軌跡及び他の人のB21 ,B22 の移動軌跡は、共にその所定の方向に該当するので、警報信号が出力される。この際、各人の移動軌跡をB13 及びB22 の時点で判断でき、この時点で警報信号が出力されることになる。また、B1の人がドアを横切ってから、B2の人がドアを横切るまでの時間に基づいて、共入り警戒用規定時間(例えば、2秒間)が定められる。この規定時間は、例えば自動ドア20が開いてから閉じるまでの時間に設定することも可能である。
実施形態では、2又はそれ以上の人が、ドア20側における検出エリアA1の境界線を横切って検出エリアA1に移動したとき、警報信号が出力されるので、共入りを即座に発見することができる。また、複数の人を検出しても、2又はそれ以上の人が所定の方向に検出エリアに移動しなければ、警報信号が出力されないので、誤報を防止することができる。
一代替実施形態において、共入り検出装置1は、ドア20の外側に設けられる。この場合、所定の方向は、検出エリアから、ドア20側における検出エリアの境界線に移動する方向に設定される。
図17は、本発明による第実施形態の共入り検出装置における距離画像センサ10を示す。第実施形態の距離画像センサ10は、光源11、光学系12、光検出素子13、センサ制御段14及び画像生成段15を備え、上記各実施形態及び参考例で利用可能である。
光源11は、光の強度を確保するために、例えば、一平面に配列された赤外LEDアレイ、又は赤外半導体レーザ及び発散レンズ等で構成され、図18に示されるように、センサ制御段14からの変調信号に応じて赤外光の強度K1を一定周期で周期的に変化するように変調して、強度変調赤外光を検出エリアに照射する。なお、強度変調赤外光の強度波形は、正弦波に限らず、三角波又は鋸歯状波等の形状でもよい。
光学系12は、受光光学系であり、例えば、レンズ及び赤外線透過フィルタ等で構成され、検出エリアからの赤外光を光検出素子13の受光面(各感光ユニット131)に集光する。光学系12は、例えばその光軸が光検出素子13の受光面と直交するように配置される。
光検出素子13は、半導体装置に形成され、複数の感光ユニット131、複数の感度制御ユニット132、複数の電荷集積ユニット133及び電荷取出ユニット134を含む。各感光ユニット131、各感度制御ユニット132及び各電荷集積ユニット133は、光学系12を介して検出エリアに面して配置される受光面としての2次元感光アレイを構成する。
各感光ユニット131は、図19(a)及び(b)に示されるように、半導体基板における不純物が添加された半導体層13aにより、例えば100×100の2次元感光アレイの各感光素子として形成され、対応する感度制御ユニット132により制御される感光感度で、検出エリアからの赤外光量に応じた量の電荷を生成する。例えば、半導体層13aはn型であり、生成される電荷は電子である。
光学系12の光軸が受光面と直交するとき、受光面の垂直方向(縦方向)及び水平方向(横方向)の両軸と光軸とを直交座標系の3軸に設定して、その原点を光学系12の中心に設定すれば、各感光ユニット131は、方位角及び仰角で表される方向からの光量に応じた量の電荷を生成する。検出エリアに1又はそれ以上の物理対象があるとき、光源11から照射された赤外光が物理対象で反射して感光ユニット131で受光されるので、感光ユニット131は、図18に示されるように、物理対象との間の往復距離に対応する位相ψだけ遅れた強度変調赤外光を受光し、その強度K2に応じた量の電荷を生成する。その強度変調赤外光は、
K2・sin(ωt−ψ)+B (式1)
で表され、ここで、ωは角振動数、Bは外光成分である。
感度制御ユニット132は、半導体層13aの表面に絶縁膜(酸化膜)13eを介して積層される複数の制御電極13bにより形成され、センサ制御段14の感度制御信号に従って、対応する感光ユニット131の感度を制御する。図19(a)及び(b)において、制御電極13bの左右方向の幅寸法は約1μmに設定される。制御電極13b及び絶縁膜13eは、光源11の赤外光に対して透光性を有する材料により形成される。感度制御ユニット132は、図19(a)及び(b)に示されるように、対応する感光ユニット131に対し複数(例えば5つ)の制御電極により構成される。例えば、生成される電荷が電子であるとき、電圧(+V,0V)が感度制御信号として各制御電極13bに印加される。
電荷集積ユニット133は、対応する各制御電極13bに印加される感度制御信号に応じて変化するポテンシャル井戸(空乏層)13cにより構成され、ポテンシャル井戸13cの近傍の電子(e)を捕獲して集積する。電荷集積ユニット133に集積されない電子は、ホールとの再結合により消滅する。従って、ポテンシャル井戸13cの領域の大きさを感度制御信号によって変えることにより、光検出素子13の感光感度を制御することができる。例えば、図19(a)の状態の感度は、図19(b)の状態のそれよりも高い。
電荷取出ユニット134は、例えば図20に示されるように、フレーム・トランスファ(FT)方式のCCDイメージ・センサと類似した構造を持つ。複数の感光ユニット131により構成される撮像領域L1及びその領域L1の隣の遮光された蓄積領域L2において、各垂直方向(縦方向)に一体に連続する半導体層13aが、垂直方向への電荷の転送経路として使用される。垂直方向は、図19(a)及び(b)の左右方向に対応する。
電荷取出ユニット134は、蓄積領域L2と、各転送経路と、各転送経路の一端から電荷を受け取って電荷を水平方向に転送するCCDの水平転送部13dとで構成される。撮像領域L1から蓄積領域L2への電荷の転送は、垂直ブランキング期間に1度に実行される。即ち、電荷がポテンシャル井戸13cに集積された後、感度制御信号の電圧パターンと異なる電圧パターンが垂直転送信号として各制御電極13bに印加され、ポテンシャル井戸13cに集積された電荷が、垂直方向に転送される。水平転送部13dから画像生成段15への転送については、水平転送信号が水平転送部13dに供給され、1水平ライン分の電荷が1水平期間に転送される。一代替例において、水平転送部は、図19(a)及び(b)の面に対する法線方向に電荷を転送する。
センサ制御段14は、動作タイミング制御回路であり、光源11、各感度制御ユニット132及び電荷取出ユニット134の動作タイミングを制御する。即ち、上記往復距離の光の伝播時間がナノ秒レベルの非常に短い時間であるので、センサ制御段14は、所定の変調周波数(例えば、20MHz)である変調信号を光源11に供給して、強度変調赤外光の強度の変化タイミングを制御する。
また、センサ制御段14は、感度制御信号として電圧(+V,0V)を各制御電極13bに印加して、光検出素子13の感度を高感度又は低感度に切り替える。
さらに、センサ制御段14は、垂直ブランキング期間に垂直転送信号を各制御電極13Bに供給し、1水平期間に水平転送信号を水平転送部13dに供給する。
画像生成段15は、例えばCPU及びプログラム等を記憶する記憶装置等により構成され、光検出素子13からの信号に基づいて、距離画像及び強度画像を生成する。
以下、センサ制御段14及び画像生成段15の動作原理を説明する。図18の位相(位相差)ψは、光検出素子13の受光面と検出エリアにおける物理対象との間の往復距離に対応するので、位相ψを算出することで物理対象までの距離を算出することができる。位相ψは、上記(式1)で表される曲線の時間積分値(例えば、期間Twの積分値Q0、Q1、Q2及びQ3)から計算することができる。時間積分値(受光量)Q0、Q1、Q2及びQ3は、それぞれ位相0度、90度、180度及び270度を始点とする。Q0、Q1、Q2、Q3の瞬時値q0、q1、q2、q3は、それぞれ
q0=K2・sin(−ψ)+B
=−K2・sin(ψ)+B
q1=K2・sin(π/2−ψ)+B
=K2・cos(ψ)+B
q2=K2・sin(π−ψ)+B
=K2・sin(ψ)+B
q3=K2・sin(3π/2−ψ)+B
=−K2・cos(ψ)+B
により与えられる。従って、位相ψは以下の(式2)で与えられ、時間積分値の場合も、(式2)により位相ψを求めることができる。
ψ=tan−1{(q2−q0)/(q1−q3)} (式2)
強度変調赤外光の1周期の間に感光ユニット131で発生される電荷量は少ないので、センサ制御段14は、光検出素子13の感度を制御して、強度変調赤外光の複数周期の間に感光ユニット131で発生された電荷を電荷集積ユニット133に集積する。強度変調赤外光の複数周期の期間において、位相ψ及び物理対象の反射率はほとんど変化しないので、例えば、時間積分値Q0に対応する電荷を電荷集積ユニット133に集積するとき、Q0に対応する期間の間、光検出素子13の感度を上げ、それ以外の期間の間、光検出素子13の感度を下げる。
感光ユニット131が受光量に比例する電荷を生成するとすれば、電荷集積ユニット133がQ0の電荷を集積するとき、αQ0+β(Q1+Q2+Q3)+βQxに比例する電荷が集積され、ここで、αはQ0〜Q3に対応する期間の感度、βはそれ以外の期間の感度、QxはQ0、Q1、Q2、Q3が得られる期間以外の受光量である。同様に、電荷集積ユニット133がQ2の電荷を集積するとき、αQ2+β(Q0+Q1+Q3)+βQxに比例する電荷が集積される。Q2−Q0=(α−β)(Q2−Q0)及びQ1−Q3=(α−β)(Q1−Q3)により、(式2)から(Q2−Q0)/(Q1−Q3)が不要な電荷の混入の有無によらず理論上同じ値になるので、不要な電荷が混入しても求める位相ψは同じ値になる。
強度変調赤外光の複数周期の期間の後、センサ制御段14は、電荷集積ユニット133に集積された電荷を取り出すために、垂直ブランキング期間に垂直転送信号を各制御電極13Bに供給し、1水平期間に水平転送信号を水平転送部13dに供給する。
また、Q0〜Q3は物理対象の明るさを反映するので、Q0〜Q3の加算値又は平均値は赤外線の強度画像(濃淡画像)における強度(濃度)値に相当する。従って、画像生成段15は、Q0〜Q3から距離画像及び強度画像を生成することができる。しかも、Q0〜Q3から距離画像及び強度画像を生成することにより、同じ位置の距離値及び強度値を得ることができる。画像生成段15は、(式2)によりQ0〜Q3から距離値を算出し、各距離値から距離画像を生成する。このとき、各距離値から検出エリアの三次元情報を算出し、三次元情報から距離画像を生成してもよい。強度画像はQ0〜Q3の平均値を強度値として含むので、光源11からの光の影響を除去できる。
図21は、本発明による第実施形態の共入り検出装置における距離画像センサの動作説明図である。
実施形態の距離画像センサは、第実施形態の距離画像センサとの相違点として、2個の感光ユニットを1画素として使用し、変調信号の1周期内でQ0〜Q3に対応する電荷を2種類ずつ生成する。
Q0〜Q3に対応する電荷を1つの感光ユニット131で生成すれば、視線方向に関する分解能は高くなるが、時間差の問題が生じるのに対し、Q0〜Q3に対応する電荷を4つの感光ユニットで生成すれば、時間差は小さくなるが、視線方向に関する分解能が低下する。
実施形態は、その問題を解決するため、図22(a)及び(b)に示されるように、2つの感光ユニットが1画素として使用される。第実施形態の図19(a)及び19(b)における両側の2つの制御電極は、電荷が感光ユニット131で生成される間、隣接する感光ユニット131に電荷が流出するのを防止するためのポテンシャルの障壁を形成する役割を担う。第実施形態では、隣接する感光ユニット131のポテンシャル井戸の間にはいずれかの感光ユニット131で障壁が形成されるから、各感光ユニットに対して3つの制御電極が設けられ、1単位に対して6つの制御電極13b−1、13b−2、13b−3、13b−4、13b−5、13b−6が設けられる。
次に、第実施形態の動作を説明する。図22(a)においては、+V(所定の正電圧)の電圧が、制御電極13b−1、13b−2、13b−3,13b−5の各々に印加され、0Vの電圧が、制御電極13b−4、13b−6の各々に印加される。図22(b)においては、+Vの電圧が、制御電極13b−2、13b−4、13b−5,13b−6の各々に印加され、0Vの電圧が、制御電極13b−1、13b−3の各々に印加される。これら電圧パターンは、変調信号の位相が逆位相(180度)に変わる毎に、交互に切り替えられる。また、他の期間においては、+Vの電圧が、制御電極13b−2、13b−5の各々に印加され、0Vの電圧が、残りの各制御電極に印加される。これにより、光検出素子は、例えば図21に示されるように、図22(a)の電圧パターンで、Q0に対応する電荷を生成することができ、図22(b)の電圧パターンで、Q2に対応する電荷を生成することができる。また、+Vの電圧が、制御電極13b−2、13b−5の各々に常に印加されので、Q0に対応する電荷及びQ2に対応する電荷が集積されて保持されることになる。同様に、図22(a)及び(b)の両電圧パターンを使用し、両電圧パターンが印加するタイミングを90度シフトすれば、Q1に対応する電荷及びQ3に対応する電荷を生成し保持することができる。
Q0,Q2に対応する電荷を生成する期間と、Q1,Q3に対応する電荷を生成する期間との間で撮像領域L1から蓄積領域L2に電荷が転送される。即ち、Q0に対応する電荷が制御電極13b−1、13b−2、13b−3に対応するポテンシャル井戸13cに蓄積され、またQ2に対応する電荷が制御電極13b−4、13b−5,13b−6に対応するポテンシャル井戸13cに蓄積されると、Q0,Q2に対応する電荷が取り出される。次いで、Q1に対応する電荷が制御電極13b−1、13b−2、13b−3に対応するポテンシャル井戸13cに蓄積され、またQ3に対応する電荷が制御電極13b−4、13b−5,13b−6に対応するポテンシャル井戸13cに蓄積されると、Q1,Q3に対応する電荷が取り出される。このような動作を繰り返すことによって、Q0〜Q3に対応する電荷を2回の読出動作で取り出すことができ、取り出した電荷を用いて位相ψを求めることができる。例えば30フレーム毎秒の画像が必要とされるとき、Q0,Q2に対応する電荷を生成する期間及びQ1,Q3に対応する電荷を生成する期間の合計期間は、60分の1秒よりも短い期間となる。
一代替実施形態において、図23(a)に示されるように、+Vの電圧が、制御電極13b−1、13b−2、13b−3の各々に印加され、+V〜0Vの間の電圧が、制御電極13b−5に印加され、0Vの電圧が、制御電極13b−4、13b−6の各々に印加される一方、図23(b)に示されるように、+V〜0Vの間の電圧が、制御電極13b−2に印加され、+Vの電圧が、13b−4、13b−5,13b−6の各々に印加され、0Vの電圧が、制御電極13b−1、13b−3の各々に印加される。このように、主として電荷を生成するポテンシャル井戸を、主として電荷を保持するポテンシャル井戸よりも深くすることにより、0Vの電圧を印加する各制御電極に対応する領域で生じた電荷が、深い方のポテンシャル井戸に流れ込みやすくなるので、電荷を保持するポテンシャル井戸に流れ込む雑音成分を低減することができる。
なお、例えば、第及び第実施形態において、FT方式のCCDイメージセンサと類似する構成に代えて、インターライン・トランスファ(IT)方式、フレーム・インターライン・トランスファ(FIT)方式と類似する構成を使用してもよい。
本発明による第1参考例の共入り検出装置が組み込まれた管理システムを示す図である。 図1の管理システムにより管理されるべき部屋のドア近傍を示す図である。 共入り検出装置の距離画像センサから得られる距離画像又は前景距離画像の各画像要素の3次元への展開図である。 (a)は検出エリアの状況の例を示し、(b)は(a)の距離画像を示し、(c)はその距離画像から生成される前景距離画像を示す図である。 前景距離画像から生成される直交座標変換画像及び平行投影画像を示す図である。 平行投影画像から抽出される各部位を示す図である。 (a)及び(b)の各々は図6の抽出された部位の例を示す図である。 (a)は図6の抽出された部位の例を示し、(b)及び(c)の各々は予め記録されたパターンの例を示す図である。 3次元の直交座標変換画像又は3次元のワールド座標変換画像から得られる各水平断面画像を示す図である。 (a)及び(b)の各々は頭部の断面積及び頭髪を基に検出された頭部の位置を示す図である。 対象検出段及び共入り検出段を構成するCPUにより実行されるフロー図である。 そのCPUにより実行されるフロー図である。 本発明による第2参考例の共入り検出装置における対象検出段により実行されるクラスタリング処理を示す図である。 本発明による第3参考例の共入り検出装置における対象検出段の動作説明図である。 本発明による第4参考例の共入り検出装置における対象検出段の動作説明図である。 本発明による第実施形態の共入り検出装置における共入り検出段の動作説明図である。 本発明による第実施形態の共入り検出装置における距離画像センサの構成図である。 図17の距離画像センサの動作説明図である。 (a)及び(b)は、図17の距離画像センサにおける一感光部に対応する領域を示す図である。 図17の距離画像センサにおける電荷取出ユニットの説明図である。 本発明による第実施形態の共入り検出装置における距離画像センサの動作説明図である。 (a)及び(b)は、図21の距離画像センサの動作説明図である。 (a)及び(b)は、図21の距離画像センサの代替実施形態を示す図である。
1 共入り検出装置
10 距離画像センサ
16 対象検出段
17 共入り検出段
18 警報段
2 セキュリティ装置
20 ドア
3 入力装置
4 制御装置

Claims (17)

  1. 検出エリアに面して配置され、距離画像を生成するものであって、その距離画像の各画像要素は、1又はそれ以上の物理対象が前記エリアにあるとき、その1又はそれ以上の物理対象までの各距離値をそれぞれ含む、距離画像センサと、前記センサによって生成された距離画像に基づいて、前記エリアにおける1又はそれ以上の物理対象を個々に検出する対象検出段とを備え、前記距離画像センサは、下方の前記検出エリアに対して下向きに面して配置され、前記対象検出段は、前記エリアにおける検出されるべき1又はそれ以上の物理対象を、前記距離画像から得られる、その検出されるべき1又はそれ以上の物理対象の特定又は各高度における部分のデータに基づいて、個々に検出する個体検出器と、共入り検出段とを備え、前記距離画像センサは、前記距離画像を連続的に生成し、前記共入り検出段は、共入り警戒時に、前記対象検出段によって検出された1又はそれ以上の人の移動軌跡を個々に追跡し、2又はそれ以上の人が所定の方向に前記検出エリアに又はから移動したときに共入りの発生を検出して、警報信号を出力することを特徴とする共入り検出装置
  2. 検出エリアに面して配置され、距離画像を生成するものであって、その距離画像の各画像要素は、1又はそれ以上の物理対象が前記エリアにあるとき、その1又はそれ以上の物理対象までの各距離値をそれぞれ含む、距離画像センサと、前記センサによって生成された距離画像に基づいて、前記エリアにおける1又はそれ以上の物理対象を個々に検出する対象検出段とを備え、前記距離画像センサは、下方の前記検出エリアに対して下向きに面して配置され、前記対象検出段は、前記エリアにおける検出されるべき1又はそれ以上の物理対象を、前記距離画像から得られる、その検出されるべき1又はそれ以上の物理対象の特定又は各高度における部分のデータに基づいて、個々に検出する個体検出器と、共入り検出段とを備え、
    前記距離画像センサは、前記距離画像を連続的に生成し、
    前記共入り検出段は、前記対象検出段によって検出された1又はそれ以上の人の入及び出とその入及び出の各方向とを監視し、共入り警戒用に設定された規定時間内に、2又はそれ以上の人が所定方向に前記検出エリアに又はから移動したときに共入りの発生を検出して、警報信号を出力することを特徴とする共入り検出装置
  3. 前記対象検出段は、前記センサから予め得られた距離画像である背景距離画像と前記センサから得られた現在の距離画像との差分に基づいて、前景距離画像を生成し、その前景距離画像に基づいて、前記エリアにおける検出されるべき1又はそれ以上の物理対象としての1又はそれ以上の人を個々に検出することを特徴とする請求項1又は2記載の共入り検出装置
  4. 前記対象検出段は、前記現在の距離画像の各画像要素から特定の画像要素を抽出することによって、前記前景距離画像を生成し、その特定の画像要素は、前記現在の距離画像の画像要素を前記背景距離画像の対応する画像要素から引いて得られる距離差分が、所定の距離しきい値よりも大きいときに、抽出されることを特徴とする請求項3記載の共入り検出装置
  5. 前記距離画像センサは、光学系と、その光学系を介して前記検出エリアに面して配置される2次元感光アレイとで構成されるカメラ構造を持ち、前記対象検出段は、予め記録された前記距離画像センサに対するカメラ・キャリブレーション・データに基づいて、前記カメラ構造に依存する前記前景距離画像のカメラ座標系を直交座標系に変換して、前記物理対象の存在/不存在の各位置を示す直交座標変換画像を生成することを特徴とする請求項4記載の共入り検出装置
  6. 前記対象検出段は、前記直交座標変換画像の直交座標系を、実空間上に仮想的に設定されるワールド座標系に変換して、前記物理対象の存在/不存在の各位置を実位置及び実寸で示すワールド座標変換画像を生成することを特徴とする請求項5記載の共入り検出装置
  7. 前記対象検出段は、前記ワールド座標変換画像を平行投影で所定平面上に投影して、前記ワールド座標変換画像における前記平面から見た各画像要素から構成される平行投影画像を生成することを特徴とする請求項6記載の共入り検出装置
  8. 前記対象検出段は、前記画像から1又はそれ以上の物理対象の部分に該当するサンプリング・データを抽出し、そして、そのデータが、人の部位に基づいて予め記録された基準データに該当するか否かを識別して、それぞれそのサンプリング・データに対応する物理対象が人であるか否かを判別することを特徴とする請求項5から7のいずれかに記載の共入り検出装置
  9. 前記サンプリング・データは、前記変換画像に仮想的に表される1又はそれ以上の物理対象の部分の体積、又は幅と奥行きと高さとの比であり、前記基準データは、1又はそれ以上の人の部位に基づいて予め記録され、その部位の体積、又は幅と奥行きと高さとの比についての値又は値の範囲であることを特徴とする請求項8記載の共入り検出装置
  10. 前記サンプリング・データは、前記平行投影画像に仮想的に表される1又はそれ以上の物理対象の部分の面積、又は幅と奥行きとの比であり、前記基準データは、1又はそれ以上の人の部位に基づいて予め記録され、その部位の面積、又は幅と奥行きとの比についての値又は値の範囲であることを特徴とする請求項8記載の共入り検出装置
  11. 前記サンプリング・データは、前記画像に仮想的に表される1又はそれ以上の物理対象の部分のパターンであり、前記基準データは、1又はそれ以上の人の部位に基づいて予め記録された少なくとも一つのパターンであることを特徴とする請求項8記載の共入り検出装置
  12. 前記距離画像センサは、強度変調光を前記検出エリアに発する光源を更に含み、画像要素毎の受光強度に基づいて、前記距離画像に加えて強度画像を生成し、前記対象検出段は、前記変換画像に基づいて、1又はそれ以上の物理対象の部分に該当するサンプリング・データを抽出し、そして前記強度画像に基づいて、前記サンプリング・データに該当する物理対象の部分に所定強度よりも低い箇所があるか否かを判別することを特徴とする請求項5又は6記載の共入り検出装置
  13. 前記距離画像センサは、強度変調赤外光を前記検出エリアに発する光源を更に含み、前記エリアからの前記赤外光に基づいて、前記距離画像に加えて前記赤外光の強度画像を生成し、前記対象検出段は、前記変換画像に基づいて、1又はそれ以上の物理対象の部分に該当するサンプリング・データを抽出し、そして前記強度画像に基づいて、前記サンプリング・データに該当する物理対象の部分からの前記赤外光の平均強度が所定強度よりも低いか否かを識別して、それぞれそのサンプリング・データに対応する物理対象の部分が人の頭部であるか否かを判別することを特徴とする請求項5又は6記載の共入り検出装置
  14. 前記対象検出段は、人として判別された物理対象の数を基に、前記平行投影画像における人として判別された物理対象の部分の位置をクラスタの構成要素に割り当て、クラスタリングのK−平均アルゴリズムによって得られる分割領域に基づいて、前記物理対象の数を検証することを特徴とする請求項8から13のいずれかに記載の共入り検出装置
  15. 前記対象検出段は、前記距離画像の各画像要素から特定の画像要素を抽出することによって、前景距離画像を生成し、その前景距離画像に基づいて、前記エリアにおける検出されるべき1又はそれ以上の物理対象としての1又はそれ以上の人を個々に検出し、前記特定の画像要素は、前記距離画像の画像要素の距離値が所定の距離しきい値よりも小さいときに、抽出されることを特徴とする請求項1又は2記載の共入り検出装置
  16. 前記対象検出段は、前記距離画像の距離値分布の極小値を持つ画像要素付近の距離画像が、人の部位に基づいて予め記録された特定形状及びその特定形状の大きさに該当するか否かを識別して、それぞれ前記極小値を持つ画像要素付近の距離画像に対応する物理対象が人であるか否かを判別することを特徴とする請求項1又は2記載の共入り検出装置
  17. 前記対象検出段は、前記距離画像の各距離値から分布画像を生成し、その分布画像に基づいて、前記検出エリアにおける1又はそれ以上の物理対象を個々に検出し、前記分布画像は、1又はそれ以上の物理対象が前記検出エリアにあるとき、1又はそれ以上の分布領域を含み、前記分布領域は、前記距離画像における所定の距離しきい値よりも小さい距離値を持つ各画像要素から形成され、前記所定の距離しきい値は、前記距離画像の各距離値の極小値に所定の距離値を加算して得られることを特徴とする請求項1又は2記載の共入り検出装置。
JP2005221822A 2004-07-30 2005-07-29 共入り検出装置 Expired - Fee Related JP4400527B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005221822A JP4400527B2 (ja) 2004-07-30 2005-07-29 共入り検出装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004224485 2004-07-30
JP2005221822A JP4400527B2 (ja) 2004-07-30 2005-07-29 共入り検出装置

Publications (2)

Publication Number Publication Date
JP2006064695A JP2006064695A (ja) 2006-03-09
JP4400527B2 true JP4400527B2 (ja) 2010-01-20

Family

ID=35786339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005221822A Expired - Fee Related JP4400527B2 (ja) 2004-07-30 2005-07-29 共入り検出装置

Country Status (6)

Country Link
US (1) US8330814B2 (ja)
EP (1) EP1772752A4 (ja)
JP (1) JP4400527B2 (ja)
KR (1) KR101072950B1 (ja)
CN (1) CN1950722B (ja)
WO (1) WO2006011593A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10803295B2 (en) 2018-12-04 2020-10-13 Alibaba Group Holding Limited Method and device for face selection, recognition and comparison

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4400527B2 (ja) * 2004-07-30 2010-01-20 パナソニック電工株式会社 共入り検出装置
JP5000928B2 (ja) * 2006-05-26 2012-08-15 綜合警備保障株式会社 物体検知装置および方法
JP4857974B2 (ja) * 2006-07-13 2012-01-18 トヨタ自動車株式会社 車両周辺監視装置
JP5118335B2 (ja) * 2006-11-27 2013-01-16 パナソニック株式会社 通過管理システム
JP5016299B2 (ja) * 2006-11-27 2012-09-05 パナソニック株式会社 通過管理システム
JP5170731B2 (ja) * 2007-02-01 2013-03-27 株式会社メガチップス 通行監視システム
JP5065744B2 (ja) * 2007-04-20 2012-11-07 パナソニック株式会社 個体検出器
JP5133614B2 (ja) * 2007-06-22 2013-01-30 株式会社ブリヂストン 3次元形状測定システム
US9131140B2 (en) 2007-08-10 2015-09-08 Canon Kabushiki Kaisha Image pickup apparatus and image pickup method
JP5014241B2 (ja) * 2007-08-10 2012-08-29 キヤノン株式会社 撮像装置、およびその制御方法
DE102008016516B3 (de) * 2008-01-24 2009-05-20 Kaba Gallenschütz GmbH Zugangskontrollvorrichtung
JP4914870B2 (ja) * 2008-06-03 2012-04-11 日本電信電話株式会社 混雑度計測装置、混雑度計測方法、混雑度計測プログラムおよびそのプログラムを記録した記録媒体
DE102009009047A1 (de) * 2009-02-16 2010-08-19 Daimler Ag Verfahren zur Objektdetektion
CN101937563B (zh) * 2009-07-03 2012-05-30 深圳泰山在线科技有限公司 一种目标检测方法和设备及其使用的图像采集装置
JP2011185664A (ja) * 2010-03-05 2011-09-22 Panasonic Electric Works Co Ltd 対象物検出装置
DE102010011225B3 (de) * 2010-03-12 2011-02-24 Mühlbauer Ag Personendurchgangskontrolle mit Kamerasystem
JP5369036B2 (ja) * 2010-03-26 2013-12-18 パナソニック株式会社 通過者検出装置、通過者検出方法
WO2011128408A1 (en) * 2010-04-15 2011-10-20 Iee International Electronics & Engineering S.A. Configurable access control sensing device
EP2395451A1 (en) * 2010-06-09 2011-12-14 Iee International Electronics & Engineering S.A. Configurable access control sensing device
US20130038694A1 (en) * 2010-04-27 2013-02-14 Sanjay Nichani Method for moving object detection using an image sensor and structured light
CN103069796B (zh) * 2010-08-17 2016-05-11 Lg电子株式会社 用于计数目标的方法和使用多个传感器的装置
JP5845582B2 (ja) * 2011-01-19 2016-01-20 セイコーエプソン株式会社 位置検出システム、表示システム及び情報処理システム
JP5845581B2 (ja) * 2011-01-19 2016-01-20 セイコーエプソン株式会社 投写型表示装置
JP5830876B2 (ja) * 2011-02-18 2015-12-09 富士通株式会社 距離算出プログラム、距離算出方法及び距離算出装置
JP5177461B2 (ja) * 2011-07-11 2013-04-03 オプテックス株式会社 通行監視装置
TW201322048A (zh) * 2011-11-25 2013-06-01 Cheng-Xuan Wang 景深變化偵測系統、接收裝置、景深變化偵測及連動系統
CN103164894A (zh) * 2011-12-08 2013-06-19 鸿富锦精密工业(深圳)有限公司 票闸控制装置及方法
US10453278B2 (en) * 2012-08-27 2019-10-22 Accenture Global Services Limited Virtual access control
WO2014039050A1 (en) * 2012-09-07 2014-03-13 Siemens Aktiengesellschaft Methods and apparatus for establishing exit/entry criteria for a secure location
TWI448990B (zh) * 2012-09-07 2014-08-11 Univ Nat Chiao Tung 以分層掃描法實現即時人數計數
JP2014092998A (ja) * 2012-11-05 2014-05-19 Nippon Signal Co Ltd:The 乗降客数カウントシステム
US20140133753A1 (en) * 2012-11-09 2014-05-15 Ge Aviation Systems Llc Spectral scene simplification through background subtraction
CN103268654A (zh) * 2013-05-30 2013-08-28 苏州福丰科技有限公司 一种基于三维面部识别的电子锁
CN103345792B (zh) * 2013-07-04 2016-03-02 南京理工大学 基于传感器景深图像的客流统计装置及其方法
US9199576B2 (en) * 2013-08-23 2015-12-01 Ford Global Technologies, Llc Tailgate position detection
JP6134641B2 (ja) * 2013-12-24 2017-05-24 株式会社日立製作所 画像認識機能を備えたエレベータ
JP6300571B2 (ja) * 2014-02-27 2018-03-28 日鉄住金テクノロジー株式会社 収穫補助装置
US9823350B2 (en) * 2014-07-31 2017-11-21 Raytheon Company Linear mode computational sensing LADAR
US9311802B1 (en) 2014-10-16 2016-04-12 Elwha Llc Systems and methods for avoiding collisions with mobile hazards
US9582976B2 (en) 2014-10-16 2017-02-28 Elwha Llc Systems and methods for detecting and reporting hazards on a pathway
SG10201407100PA (en) 2014-10-30 2016-05-30 Nec Asia Pacific Pte Ltd System For Monitoring Event Related Data
CN104809794B (zh) * 2015-05-18 2017-04-12 苏州科达科技股份有限公司 门禁控制方法及系统
JP6481537B2 (ja) * 2015-07-14 2019-03-13 コニカミノルタ株式会社 被監視者監視装置および被監視者監視方法
CN105054936B (zh) * 2015-07-16 2017-07-14 河海大学常州校区 基于Kinect景深图像的快速身高和体重测量方法
JP6512034B2 (ja) * 2015-08-26 2019-05-15 富士通株式会社 測定装置、測定方法及び測定プログラム
EP3203447B1 (en) * 2016-02-04 2019-05-01 Holding Assessoria I Lideratge, S.L. (HAL SL) Detection of fraudulent access at control gates
CN106157412A (zh) * 2016-07-07 2016-11-23 浪潮电子信息产业股份有限公司 一种人员准入系统及方法
WO2018168552A1 (ja) * 2017-03-14 2018-09-20 コニカミノルタ株式会社 物体検出システム
JP6713619B2 (ja) * 2017-03-30 2020-06-24 株式会社エクォス・リサーチ 身体向推定装置および身体向推定プログラム
CN108184108A (zh) * 2018-01-12 2018-06-19 盎锐(上海)信息科技有限公司 基于3d成像的图像生成方法及装置
CN108280802A (zh) * 2018-01-12 2018-07-13 盎锐(上海)信息科技有限公司 基于3d成像的图像获取方法及装置
CN108268842A (zh) * 2018-01-12 2018-07-10 盎锐(上海)信息科技有限公司 图像识别方法及装置
CN108089773B (zh) * 2018-01-23 2021-04-30 歌尔科技有限公司 一种基于景深投影的触控识别方法、装置及投影部件
WO2019161562A1 (en) 2018-02-26 2019-08-29 Intel Corporation Object detection with image background subtracted
EP3680814B1 (de) * 2019-01-14 2024-10-09 dormakaba Deutschland GmbH Verfahren zur erkennung von bewegungsabläufen und passiererkennungssystem
CN109867186B (zh) * 2019-03-18 2020-11-10 浙江新再灵科技股份有限公司 一种基于智能视频分析技术的电梯困人检测方法及系统
JP7311299B2 (ja) * 2019-04-10 2023-07-19 株式会社国際電気通信基礎技術研究所 人認識システムおよび人認識プログラム
US10850709B1 (en) * 2019-08-27 2020-12-01 Toyota Motor Engineering & Manufacturing North America, Inc. Facial recognition and object detection for vehicle unlocking scenarios
US11495070B2 (en) * 2019-09-10 2022-11-08 Orion Entrance Control, Inc. Method and system for providing access control
WO2021217011A1 (en) * 2020-04-24 2021-10-28 Alarm.Com Incorporated Enhanced property access with video analytics
US11983963B2 (en) 2020-07-24 2024-05-14 Alarm.Com Incorporated Anti-spoofing visual authentication
CN112050944B (zh) * 2020-08-31 2023-12-08 深圳数联天下智能科技有限公司 门口位置确定方法及相关装置
WO2023030816A1 (en) * 2021-08-31 2023-03-09 Agtatec Ag Method for operating a person separation device as well as person separation device
US12371107B2 (en) 2022-10-06 2025-07-29 Ford Global Technologies, Llc Method for truck backup with dynamic length
US12315319B2 (en) * 2023-05-16 2025-05-27 Hakimo Inc. Tailgating detection using multimodal entry data

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1057626C (zh) * 1994-01-07 2000-10-18 中国大恒公司 区域移动物体监视控制管理系统
JP3123587B2 (ja) 1994-03-09 2001-01-15 日本電信電話株式会社 背景差分による動物体領域抽出方法
JP3233584B2 (ja) * 1996-09-04 2001-11-26 松下電器産業株式会社 通過人数検知装置
JP2000230809A (ja) * 1998-12-09 2000-08-22 Matsushita Electric Ind Co Ltd 距離データの補間方法,カラー画像階層化方法およびカラー画像階層化装置
JP4644958B2 (ja) 2001-03-19 2011-03-09 パナソニック電工株式会社 距離測定装置
JP4644992B2 (ja) * 2001-08-10 2011-03-09 パナソニック電工株式会社 距離画像を用いた人体検知方法
JP4048779B2 (ja) 2001-12-28 2008-02-20 松下電工株式会社 距離画像処理装置
EP1493130A1 (en) * 2002-04-08 2005-01-05 Newton Security, Inc. Tailgating and reverse entry detection, alarm, recording and prevention using machine vision
US7203356B2 (en) * 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
JP2004062980A (ja) 2002-07-29 2004-02-26 Toyota Gakuen 磁性合金、磁気記録媒体、および磁気記録再生装置
JP2004124497A (ja) * 2002-10-02 2004-04-22 Tokai Riken Kk 本人確認と連れ込み防止の機能を備えた入退室管理システム
US20040260513A1 (en) * 2003-02-26 2004-12-23 Fitzpatrick Kerien W. Real-time prediction and management of food product demand
US7623674B2 (en) * 2003-11-05 2009-11-24 Cognex Technology And Investment Corporation Method and system for enhanced portal security through stereoscopy
JP4400527B2 (ja) * 2004-07-30 2010-01-20 パナソニック電工株式会社 共入り検出装置
JP4122384B2 (ja) 2005-01-31 2008-07-23 オプテックス株式会社 通行監視装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10803295B2 (en) 2018-12-04 2020-10-13 Alibaba Group Holding Limited Method and device for face selection, recognition and comparison
US11036967B2 (en) 2018-12-04 2021-06-15 Advanced New Technologies Co., Ltd. Method and device for face selection, recognition and comparison

Also Published As

Publication number Publication date
EP1772752A4 (en) 2009-07-08
KR20080047485A (ko) 2008-05-28
EP1772752A1 (en) 2007-04-11
JP2006064695A (ja) 2006-03-09
CN1950722A (zh) 2007-04-18
KR101072950B1 (ko) 2011-10-17
US20090167857A1 (en) 2009-07-02
WO2006011593A1 (ja) 2006-02-02
CN1950722B (zh) 2010-05-05
US8330814B2 (en) 2012-12-11

Similar Documents

Publication Publication Date Title
JP4400527B2 (ja) 共入り検出装置
US7397929B2 (en) Method and apparatus for monitoring a passageway using 3D images
US7400744B2 (en) Stereo door sensor
CN106144795B (zh) 通过识别用户操作用于乘客运输控制和安全的系统和方法
CN106144796B (zh) 用于空乘客运输外壳确定的基于深度传感器的乘客感测
US20050249382A1 (en) System and Method for Restricting Access through a Mantrap Portal
ES2940228T3 (es) Sistema de control de inventario basado en imágenes utilizando reconocimiento de imágenes avanzado
CN106144797B (zh) 用于乘客运输的通行列表产生
WO2011139734A2 (en) Method for moving object detection using an image sensor and structured light
CN106144816A (zh) 基于深度传感器的乘客检测
CN106144798A (zh) 用于乘客运输控制的传感器融合
CN104828664A (zh) 自动调试系统和方法
JP5155553B2 (ja) 入退室管理装置
JP2013250856A (ja) 監視システム
US12026902B2 (en) Method and system for monitoring a spatial area in a personnel interlock
KR20070031896A (ko) 개체 검출기 및 동반입장 검출 디바이스
JP2006046960A (ja) 画像処理装置
HK1101647A (en) Individual detector and accompaniment detection device
Jia et al. Anti-tailing Ab-door detection based on motion template algorithm
Siegmund et al. Verification of single-person access in a mantrap portal using RGB-D images
Barnich et al. A virtual curtain for the detection of humans and access control
Zhang et al. A Fast Recognition Algorithm for Photoelectric Peeping Equipment
EP4418223A1 (en) Access control device for a person and/or a movable object and method for controlling the opening and/or closing of a blocking device
Szczodrak et al. An approach to the detection of bank robbery acts employing thermal image analysis
CN121281160A (zh) 闸机通行控制方法和系统及其相关应用

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090707

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091006

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091019

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131106

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees