JPH11134506A - 移動体組合せ検出装置および方法 - Google Patents

移動体組合せ検出装置および方法

Info

Publication number
JPH11134506A
JPH11134506A JP9299948A JP29994897A JPH11134506A JP H11134506 A JPH11134506 A JP H11134506A JP 9299948 A JP9299948 A JP 9299948A JP 29994897 A JP29994897 A JP 29994897A JP H11134506 A JPH11134506 A JP H11134506A
Authority
JP
Japan
Prior art keywords
moving object
combination
slit
event
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9299948A
Other languages
English (en)
Other versions
JP3567066B2 (ja
Inventor
Hirokazu Amamiya
廣和 雨宮
Toshihide Saga
俊秀 嵯我
Shinji Hashimoto
進二 橋本
Yasuyuki Oki
康幸 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Akita Electronics Systems Co Ltd
Original Assignee
Hitachi Ltd
Akita Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Akita Electronics Co Ltd filed Critical Hitachi Ltd
Priority to JP29994897A priority Critical patent/JP3567066B2/ja
Priority to EP98120418A priority patent/EP0913799A3/en
Priority to US09/182,436 priority patent/US6584211B1/en
Publication of JPH11134506A publication Critical patent/JPH11134506A/ja
Priority to US09/832,136 priority patent/US6654481B2/en
Application granted granted Critical
Publication of JP3567066B2 publication Critical patent/JP3567066B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19604Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19652Systems using zones in a single scene defined for different treatment, e.g. outer zone gives pre-alarm, inner zone gives alarm
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19665Details related to the storage of video surveillance data
    • G08B13/19671Addition of non-video data, i.e. metadata, to video stream
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/1968Interfaces for setting up or customising the system
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

(57)【要約】 【課題】従来の線状監視方法では、移動体の監視領域通
過といった、簡単な条件でしか移動体を検出できなかっ
た。 【解決手段】複数個の移動体検出手段を有し、その移動
体検出結果の検出位置や検出時間などの組み合わせを元
に移動体を検出することにより、より複雑な移動体を検
出できる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、道路における交通
量の計測や、線路・踏み切りにおける犯罪防止など、カ
メラにより入力された映像監視のための、移動体組合せ
検出装置及び方法に関する。
【0002】
【従来の技術】現在、道路や踏み切り、銀行のサービス
フロント等のいたる場所でカメラ映像による監視が行な
われている。これらは、特定の場所を移動する物体(以
下では、移動体または移動体という)を監視することに
よって、交通集中を解消したり、事故や犯罪を未然に防
止することを目的としている。このような移動体に対す
る映像監視のニーズはきわめて高い。ところが、現在の
映像監視は技術的な問題から人手に頼らざるをえない状
況にある。こうした背景から、コンピュータなどによる
監視処理の自動化が求められており、モデルやテンプレ
ートを等を用いた様々な方法が提案されている。
【0003】移動体を検出する方法としては、特開平8
−221577号公報に記載される「移動体検出・抽出
装置及び方法」が提案されている。この方式では、複雑
背景下での移動体検出・抽出と、映像処理時間の短縮と
を実現している。以下に図2を用いてこの方式を説明す
る。
【0004】図2のうち、フレーム画像F1(241)
からF5(245)は、それぞれ時刻T1(221)か
らT5(225)での入力映像のフレーム画像である。
図2のフレーム画像中に記されている線分S(231)
は、入力映像中での監視を行なう着目領域を線分として
指定したものであり、以降、この線分状の着目領域をス
リットと呼ぶことにする。図2の201から205は、
それぞれ時刻T1(221)からT5(225)まで
の、スリットS上の画像(以降スリット画像と呼ぶ)と
背景画像を表したものである。本例では、処理開始時の
背景画像として、移動体がカメラに移っていない時の監
視着目領域の画像を設定している。
【0005】本方法では、それぞれのフレーム画像につ
いて、次の処理を行なう。(1)ある特定のフレームに
おけるスリット画像と背景画像を抽出し、(2)スリッ
ト画像と背景画像の画像差分量を、画像のピクセル値の
2乗差分などの方法により算出し、(3)該画像差分量
を時系列的に眺め、画像差分量が山形のパターン等に従
って変移していた場合、移動体と判断し、(4)画像差
分量の変動がなく平坦な場合、背景画像と判断する。
【0006】上記のステップ(3)について、図2のフ
レーム画像列を用いて説明する。本例のように、物体が
スリット状を横切る場合、画像差分量は図2の画像変化
量グラフ(211)のように山形に遷移する。まず、物
体がスリットに入る前(時刻T1(221))では、ス
リット上の画像と背景画像はほぼ同一(201)なの
で、画像差分量は小さい。次に、物体がスリットを横切
り始める(時刻T2(222))と、スリット画像と背
景画像は異なる(202)ため、画像差分量は大きくな
る。最後に、物体がスリットを通り抜けると(時刻T3
(223))、画像差分量は、また小さい値に戻る。こ
のように物体がスリットを横切ると画像差分量は山形に
なる。したがって、移動体を見つけるには、画像差分量
を時系列的に眺めて、山形になった瞬間を見つければよ
い。本例では、山形になった瞬間として、画像差分量
が、しきい値a(213)を超えて、かつ、その後しき
い値a(213)を下回った時点を用いている。
【0007】上記のステップ(4)について、図2のフ
レーム画像列を用いて説明する。本例のように、スリッ
ト上に荷物(252)などが放置されると(時刻T4
(224))、当初画像差分量が増加するが、その後荷
物(252)は静止したままなので、画像差分量は、高
どまりしたまま変動しなくなる(時刻T4(224)か
ら時刻T5(225))。この方式では、一定時間以上
画像差分量の変動値が小さかった場合、その時点のスリ
ット画像を背景としている。
【0008】以上の通り、特開平8−221577号公
報では、監視を行なう着目領域として線分を用いること
ができるため、画面全体を着目領域とするそれ以前の方
式に比べ、画像差分量の算出時間を大幅に短縮できる。
また、この方式では、画像差分量の時系列変化を見るこ
とにより背景更新のタイミングを見つけることができる
ため、屋外の映像などのように、背景が常時変更される
可能性のある場所でも、監視処理を適用できる。
【0009】
【発明が解決しようとする課題】ところが、上記従来技
術を単純に利用する際、次のような問題点が存在する。
【0010】第一の問題点は、監視を行なう着目領域を
画面上に1つしか設けられない点である。実際の監視映
像では、4台のカメラで別々に撮影した映像を一台のモ
ニタTVで表示できるよう、4映像を2×2の配列状に
表示することが多い。この場合、一台のTVモニタ画面
上に監視着目領域を4つ指定できることが望ましい。
【0011】第二の問題点は、仮に複数台の移動体検出
・抽出装置を用意したとしても、その検出時刻の前後関
係や、検出結果画像の類似性の判定など、移動物の内容
に基づいた高度な検出判断が行なえないことである。
【0012】
【課題を解決するための手段】まず、本発明を構成する
手段として、映像を入力する手段と入力された映像から
移動体を検出するする手段とを組にした手段を複数個設
け、それぞれの組から出力される移動体検出結果を判定
する移動体組合せ判定手段と、検出された結果を出力す
る手段を有する。
【0013】それぞれの移動体検出手段では、移動体の
有無や背景更新などを出力するだけでなく、その移動体
検出手段の識別子や、検出時刻、検出イベントの種類、
および検出判定に用いたスリット画像といった移動体検
出情報も出力できるようにする。移動体組合せ判定手段
では、それぞれの移動体検出手段から出力された情報か
ら総合的な条件判断などを行なうことによって、最終的
な移動体検出を決定する。
【0014】このように、移動体検出情報と移動体組合
せ判定手段とを新たに加えることにより、本発明の第一
の目的である、入力映像中に複数個の着目領域を設ける
ことを実現でき、さらに本発明の第二の目的である、移
動体の検出時刻の前後判定や検出結果画像の類似性の判
定など、移動物の内容に基づいた高度な検出判断を行な
わせることができる。移動体組合せ判定手段の補助入力
として、赤外線通り抜けセンサーや、カメラ画像が切り
替わる映像変化点検出装置など、移動体検出装置以外の
装置を設ければ、単独の映像解析方法では難しい複雑な
移動物の判定も可能となる。
【0015】その他の特徴的な移動体組合せ検出装置及
び方法は、明細書中の記載から自ずと明らかになるであ
ろう。
【0016】
【発明の実施の形態】以下に本発明の実施例について次
の4つの例を細かく説明する。4つの実施例として、
(1)移動体組合せ判定手段の1実施例、(2)2本の
スリットを用いた、移動体の向きと速度の判定方法と、
それを用いた移動体カウント装置の1実施例、(3)複
数のスリットを格子状に配置させることによって物体の
位置を追尾する追尾監視カメラの1実施例、(4)複数
本のスリットを設定する画面入力方法の1実施例、につ
いて述べる。
【0017】本発明の1つ目の実施例として、移動体組
合せ判定手段の1実施例について以下に述べる。
【0018】図1は、移動体組合せ検出装置の構成図で
ある。図2は、図1の各々の移動体検出手段の実現方法
である。図3は、移動体組合せ判定手段の処理手順の例
である。図4は、移動体組合せ判定手段で用いる、移動
体検出情報の列の例である。なお以降では、移動体検出
情報の列とイベントリストを呼ぶ(移動体検出情報をイ
ベント情報と呼ぶ場合もある)。
【0019】まず図1の移動体組合せ検出装置(10
0)の構成内容について述べる。移動体組合せ検出装置
(100)は、以下の手段から構成される。1つ目の映
像入力手段1(111)からn個目の映像入力手段n
(121)までの映像入力手段は、各々TVカメラ1
(110)からTVカメラn(120)までの複数の映
像作成手段によって作成された映像を、移動体組合せ検
出装置(100)内に読込む機能を実現している。この
場合、TVカメラ1(110)の映像は映像入力手段1
(111)にへと入力され、以下同様に、1からnまで
の番号iに対して、i番目のTVカメラiの映像は映像
入力手段iへと入力される。次に映像入力装置1(11
1)に読込まれた映像は、映像を構成するフレーム画像
の列として、移動体検出手段1(112)に入力され、
移動体の有無が検出される。以下同様に、i番目の移動
体検出手段iにおいて、映像入力装置iに読込まれた映
像は、移動体検出手段iに入力され、移動体の有無が検
出される。
【0020】移動体検出手段1(112)は、入力され
たある特定のフレームにおける着目領域のデータと各フ
レームでの着目領域のデータとの相関を算出し、算出さ
れた少なくとも1つの相関値のパターンから、移動体の
存在有無や背景画像の変更などの移動体検出イベントを
判定する。この実現方法として、本実施例では、「従来
の方法」で述べた図2に示される方法を用いるものとす
る。移動体検出手段1(112)の出力(113)に
は、移動体がスリットに触れた時点や、移動体がスリッ
トを抜け出た時点や、背景が更新された時点など、相関
値のパターンとして求めることが可能な、様々な移動体
検出イベントを想定することができる。たとえば図2を
用いて説明すると、移動体がスリットに触れた時点は、
図2の画像変化量があるしきい値a(213)を超えた
時点(時刻T2(222))として検出できる。また同
様に、移動体がスリットを抜け出た時点は、画像変化量
がしきい値a(213)を超えた後に、また画像変化量
がしきい値a(213)を下回った時点(時刻T3(2
23))として検出できる。また同様に、背景が更新さ
れた時点は、画像変化量があるしきい値a(213)を
超えた後、数秒間画像変化量が動かなかった時点(時刻
T5(225))として検出できる。
【0021】なお、移動体検出手段1(112)以外の
移動体検出手段i(iは2からn)についても、同様な
方法によって移動体を検出し、その検出結果を出力する
ものとする。
【0022】移動体検出手段1(112)から移動体検
出手段n(122)までのそれぞれの移動体検出手段
は、検出した移動体検出イベントを、移動体検出イベン
トの種類や発生時刻などの移動体検出情報とともに、移
動体組合せ判定手段(101)に入力する。本例での移
動体検出情報は、図4のイベントリストのうちの1要素
(401)に示されるような、移動体検出手段の識別子
id(452)(以降ではスリットIDと呼ぶ。文字列
などにより実現する)、検出時刻time(453)、
スリットに触れた時点や背景更新の時点などの検出した
移動体検出イベントの種類type(454)、移動体
検出処理に用いたスリット画像slit(455)、同
じく背景画像bgr(456)、および、同じくフレー
ム全体の画像img(457)、から構成されている。
【0023】本例では、スリット画像slit(45
5)、背景画像bgr(456)、フレーム画像img
(457)は、実際の画像データを指すポインタとして
実現されており、それぞれ画像411、412、413
を指している。
【0024】なお、ここに述べた移動体検出手段以外に
も、移動体組合せ判定手段(101)の入力として、赤
外線による物体通過センサーや、カメラの切り替わりを
自動的に認識できるシーン変化点検出手段など、外部入
力手段(130)から入力されたデータを解析する外部
検出手段(132)も追加してもよい。
【0025】次に、移動体検出手段などから出力され
た、移動体検出イベントやそれに付随する移動体検出情
報(113、123、133など)は、移動体組合せ判
定手段101により、その情報の組み合わせの条件が判
定され、判定された結果が、より高度な移動体検出イベ
ント(102)となって出力される。結果出力手段(1
03)では、より高度な移動体検出イベント(102)
を、ディスプレイ装置(104)などによって最終的な
移動体組合せ検出結果をユーザに提示する。
【0026】なお、本例では、上記の移動体組合せ検出
装置(100)を、メモリと入出力装置と演算装置など
から構成されるコンピュータによって実現している。
【0027】次に、本例での移動体組合せ判定手段(1
01)の実現方法について、図3と図4を用いて細かく
説明する。図3の手続き300は、移動体組合せ判定手
段(101)に接続された、n個の移動体検出手段(1
12、122など)、または、外部検出手段(132)
のうちの、いずれかで移動体検出イベントが発生した際
に実行される処理であり、その入力データは、先に述べ
た移動体検出情報(ここでは変数eventとして実現
している)である。図4は、移動体組合せ判定手段が内
部に持つ移動体検出イベントの列(イベントリスト)で
ある。イベントリストは、先に述べた移動体検出手段が
作成して移動体検出情報を、リスト構造により複数個格
納している。イベントリストは、その先頭を表す先頭ポ
インタ400を持ち、そのリスト構造の1要素として1
つの移動体検出情報を格納し、各要素間をポインタによ
って連結している。図4の例では、イベントリストの要
素として、要素401と要素402があり、それらは先
頭ポインタ400、要素401の次ポインタ領域nex
t(451)などにより、連鎖的に繋がっている。要素
の移動体検出情報の各項目(符号452から符号457
まで)は先に述べたのでここでは説明を割愛する。
【0028】図3の手続き300についてステップを追
いながら説明する。手続き300は、大きく分けて、過
去T秒分のイベントを保持する処理と、過去T秒分のイ
ベントを組み合わせた条件を判定する処理との2つの部
分からなる。
【0029】まず、過去T秒分のイベントを保持する処
理の部分を説明する。イベントリストの先頭ポインタを
用いて、イベントリストの先頭項目にアクセスし、その
位置を1イベントを表す変数eに代入する(301)。
次に変数e用いて、イベントリストの終わりまで順々に
読込むループを行なう(302)。なお、イベントリス
トの最後の要素の次ポインタ領域には、値nilが入っ
ているものとする。ループ(302)では、次の処理を
行なう。
【0030】初めに一時変数nxにイベントリストの次
の要素を待避しておく(311)。次に本処理の実行時
間と現在のリスト位置のイベントeの時間差を求めるた
めに、入力イベントeventの時間event.ti
meと、現リスト位置eの時間e.timeの差を求め
る(312)。求めた時間長があらかじめ決められた時
間長Tより大きい場合(314)、その時点のイベント
をイベントリストから削除する(321)。ループ30
2の最後の処理として、先ほど待避しておいたリストの
次要素位置nxをイベントの変数eに再代入し(31
5)、次のリスト要素に対して同様の処理を繰り返す。
ループが終了したら、イベントリストの先頭に入力イベ
ントeventを追加する(302)。以下の処理によ
り、イベントリストのうち過去T秒より古いイベント情
報はリストから削除され、イベントリストの時間長がT
秒以内になる。
【0031】次に、過去T秒分のイベントを組み合わせ
た条件を判定する処理を説明する。ループ304では、
あらかじめ用意しておいたイベント組合せ条件の個数の
分だけ、次の処理を繰り返し、また何回目の繰り返しで
あるかを変数iにセットする(304)。ループの中で
は、まず、あらかじめ用意しておいたイベント組合せ条
件のi番目の条件の判定処理を実行する(317)。こ
の判定処理(317)は、移動体組合せ検出装置の対象
とする移動体の内容により、様々な処理に置き換えるこ
とができる。それらの詳しい実現例については後述す
る。本例では、判定処理317の入力として、先に作成
した時間長T秒分のイベントリストを与え、判定処理3
17の出力として、移動体の検出有無を表すフラグと、
移動体を検出した場合のその移動体の移動体検出情報e
outを得ることにしている。判定処理317の後、判
定結果が真ならば(318)、移動体検出イベントを発
行し、その移動体検出情報として判定処理317にて得
たeoutを出力する。
【0032】これらの処理をあらかじめ用意したイベン
ト組合せ条件の数だけ繰り返すことにより、1つのイベ
ントリストから、複数の種類の移動体検出イベントを見
つけることができるようになる。
【0033】なお、イベントリストの時間長Tと、イベ
ント組合せ条件とを、どのように設定すればよいのか
は、以降の実施例において詳しく説明する。
【0034】本発明の2つ目の実施例として、2本のス
リットを用いた、移動体の向きと速度の判定方法と、そ
れを用いた移動体カウント装置の1実施例について以下
に述べる。
【0035】図5は、移動体組合せ検出装置の入力とな
る映像を、1つのTVカメラから入力するようにした場
合のシステム構成例であり、本実施例以降の実施例での
基本システム構成である。図6は、2本のスリットを用
いた、移動体の向きと速度の判定方法でのスリット配置
方法である。図7は、2本のスリットを用いた、移動体
の向きのイベント組合せ条件判定の説明図である。図8
は、2本のスリットを用いた、移動体の向きと速度の判
定方法の、イベント組合せ条件判定の処理フロー図であ
る。図9は、2本のスリットを用いた、移動体カウント
装置の画面出力例である。
【0036】図5は、図1とは別のシステム構成例であ
り、1つのTVカメラ(501)の映像中に複数のスリ
ットを指定できるようにしたシステム構成である。本構
成により、一台のTVカメラ中に現れた移動体を、n個
の移動体検出手段を用いて、つまりn本のスリットを用
いて、従来の1本のスリットによる検出方法では検出で
きなかった、移動体の向きや映像中の移動体の場所など
の、高度な移動体検出を行なうことができる。本例で
は、映像入力手段1(511)から映像入力手段n(5
21)までのn個の映像入力手段は、同一のTVカメラ
(501)から映像を入力するが、入力された映像に対
しては、各々の映像入力手段に対応するn個の移動体検
出手段(512、522など)によって処理される。移
動体組合せ判定手段502では、n個の移動体検出手段
(512、522など)の出力を元に最終的な移動体の
検出を判定し、その結果を、結果出力手段503を用い
て、ディプレイ装置504などにより、ユーザに提示す
る。その他、図5の詳細な実現内容については、図1の
説明から自ずと明らかである。
【0037】図6は、2本のスリットを用いた、移動体
の向きと速度の判定方法のスリット指定方法である。本
例では、車の交通量を調査するために、道路を通行する
車に対してTVカメラを向けている。本システムは図5
のシステム構成を用いて実現されているものとし、図5
の中の移動体検出手段の個数nは、本例では2となる。
図6のTVカメラ映像601には、左向きに走行する車
621と、右向きに走行する車622が映っている。本
実施例では、移動体の速度とその向きとを高い精度で判
定するために、移動体検出手段1が監視するスリットS
L(611)と、移動体検出手段2が監視するスリット
SR(612)の2本のスリットとを、距離Lメートル
(613)を隔てて並べて配置している。
【0038】次に、図7と図6を用いて、図6のように
スリットを配置した際、どのように移動体の向きと速度
を判定すればよいのかを、621の左向きの車を例に取
りながら、説明する。
【0039】車621がTV映像601の右側から現
れ、TV映像601の左側に向かったとすると、まず、
まずスリットSR(612)、つまり移動体検出手段2
で、移動体検出イベントが発生し、それから少し経った
後に、スリットSL(611)、つまり移動体検出手段
1で、移動体検出イベントが発生することが分かる。こ
の際に発生する2つの移動体検出イベントに対する移動
体検出情報は、スリットSL(611)では移動体検出
情報E1(701)のように、スリットSR(612)
では移動体検出情報E2(702)のようになる。移動
体検出情報には、スリットSR(612)での検出時刻
E2.time(722)の値である「3」と、スリッ
トSL(611)での検出時刻E1.time(71
2)の値である「5」とが記録されている。以上から、
移動体が左向きに通過した場合、必ずE1.time
(712)の方がE2.time(722)よりも大き
くなることが分かる。また右向きでは、これの逆が成り
立つことが分かる。このため、この移動体検出の時間情
報から移動体の向きを判定することができる。
【0040】また自ずと、移動体が、スリットSR(6
12)とスリットSL(611)の間を、時間t=E
1.time−E2.timeの時間で通り抜けたこと
が判定できるので、移動体の速度Vを、あらかじめ測っ
ておいた距離L(613)を用いて、V= L/tとし
て求められる。
【0041】以上のように、移動体の向きと速度を2本
のスリットにより判定することができた。しかし、この
方式の場合、移動体が2本のスリットの中央位置まで来
た後に、折り返して反対側に戻ったり、複数の移動体が
同時に画面内に侵入したりした場合、正しい移動体判定
ができない。これは、2つのスリットを通過した移動体
が同一であるなど、移動体の内容まで判定していないこ
とに原因がある。本例では、上記例にさらに条件を加え
ることによって、より正確な移動体の向きと速度の判定
を行なえるようにしている。この実現方法について、以
下に述べる。
【0042】まず、先ほどのスリットの配置条件に、次
のような平行・直交配置条件を加える。移動体検出手段
1の監視するスリットSL(611)と、移動体検出手
段2の監視するスリットSR(612)の2本のスリッ
トを、距離Lメートル(613)を隔てて平行に並べ、
かつ、移動体621または622の進行方向または道路
に対して垂直の位置に配置する。このようにすることに
より、車などが通過した際、スリットSL(611)の
スリット画像E1.slit(713)と、スリットS
R(612)のスリット画像E2.slit(723)
とが、ほぼ同一の画像になるため、移動体検出時に2つ
のスリット画像の類似度を算出することによって、2つ
のスリットを通過した移動体が同一か否かを判定するこ
とができる。
【0043】以上の検出条件をまとめたものが、左向き
の車の検出条件式CL(703)であり、「E1.sl
it(713)とE2.slit(723)がほぼ同一
の画像で、かつ、E1.time>E2.time」と
なる。ただし、ここの条件式CL(703)は、移動体
の向きが左向きである条件なので、検出イベント点の識
別子の制約条件、「E1.id(711)=“SL”、
かつ、E2.id(721)=“SR”」が、加わるこ
ととなる。
【0044】次に、図8を用いて、以上に示した検出条
件を満たすイベントを判定するための、実際の処理フロ
ーを説明する。手続き801は、図3の移動体組合せ判
定手段の処理フローにて説明した、イベント組合せ条件
判定処理(317)の、本実施例における処理方式を表
している。手続き801では、入力は過去T秒分のイベ
ントリストであり、出力は移動体有無を表すフラグfと
イベントの移動体検出情報eoである。また、本例の移
動体の向きと速度の検出方法では、図3のイベント組合
せ条件判定処理(317)を実行するにあたり、イベン
トリスト時間長Tを5秒に、イベント組合せ条件数を1
に設定する(802)。
【0045】はじめに移動体有無フラグを偽に初期化し
ておく(811)。その後、手続き内一時変数etにイ
ベントリストの先頭のイベントを設定する(812)。
次に、手続き内一時変数eを用いて、イベントリストの
先頭から2番目のイベントから、末尾のイベントに向か
ってリストをたどっていく処理を行なう。このために、
まず、変数eにイベントリストの先頭の次のイベントを
設定し(813)、次にeの値がnilになるまで以下
の処理を繰り返す(814)。
【0046】なお、以降においては、イベントリスト
は、先のイベント組合せ条件判定処理(317)によ
り、最新の検出イベントがイベントリストの先頭に置か
れ、また、イベントリストを末尾に向かって行くにした
がって時刻が古い検出イベントとなっていくことに注意
されたい。
【0047】ループ(814)の中では、初めに最新の
イベントetと現在のイベントリストの位置でのイベン
トeとのイベント識別子を比較し(821)、値が違う
場合のみステップ831以降を行なう。本例のイベント
識別子には“SL”または“SR”のどちらかしか存在
しないため、これにより、最新のイベントetの時点よ
り以前に反対側のスリットを通り抜けた移動体が存在し
たか否かを判定できる。ステップ831に処理が移った
場合、最新のイベントetでの移動体と、現リスト位置
eでの移動体が同じかどうかを判定するために、2つの
イベント時点のスリット画像e.slitとet.sl
itとの画像差分量を求める(831)。この2つ移動
体が同一であると、スリット画像がほぼ同一の画像にな
るので、画像差分量が小さくなる。この差分量があるし
きい値よりも小さい場合(832)、右向きまたは左向
きの移動体を検出したと見なし、移動体検出フラグfを
真にする(841)。ステップ(841)の後、出力用
の移動体検出情報を設定する処理を行なう(842)。
【0048】イベント情報設定処理(842)では、最
新のイベントetのスリット識別子を見ることにより、
右向き移動物体検出なのか、左向き移動物体検出なのか
の判定を行なう。移動体が左向きの場合、先に図6のス
リットSR(612)の検出イベントe、次にスリット
SL(611)の検出イベントetが発生するはずであ
る。したがって、イベント識別子et.idが“SL”
の場合(851)、検出されたイベントは左向きであ
り、結果、出力する移動体検出情報eoの識別子には、
“左向き”を格納する(861)。また、イベント識別
子et.idが“SL”でない場合(851)、移動体
検出情報eoの識別子には、“右向き”を格納する(8
62)。イベント情報設定処理の最後の処理として、移
動体の速度eo.speedや検出時刻eo.time
やフレーム画像imgを最新のイベント情報etを元に
設定する(852)。移動体の速度eo.speedに
ついては、あらかじめ測定しておいたスリット間の距離
L(図6の613)を、最新のイベントetの時間と見
つけたイベントeの時間との差で割った値を代入すれば
よい。
【0049】イベント情報設定処理(842)が終了し
たら、イベントを検出できたとして、そのままループ8
14を終了する(843)。
【0050】なお、ステップ821にて、イベントの識
別子が同じ場合(どちらも“SL”の場合など)や、ス
テップ832にて、画像差分量がしきい値より大きい場
合は、現リスト位置のイベントeは、最新の移動体検出
イベントetに対応していないと判断し、イベントリス
トの末尾に向かってループを続ける。
【0051】ループ814がイベントリストの全てイベ
ントを操作したのにも関わらず、etに対応する移動体
検出イベントが見つからない場合は、移動体なしと判断
し、移動体検出有無フラグfを偽に設定し、手続き80
1を終了する。
【0052】図9は、以上に説明した移動体の向きと速
度を判定する方法を用いた移動体カウント装置の結果出
力例方法を示している。ウィンドウ900は、結果を表
示する領域であり、コンピュータのOSなどにより表示
される。
【0053】ウィンドウ900には、入力映像を表示す
る領域901と、移動体の数を数える調査を開始させる
調査開始ボタン904と、同じく調査を終了させる調査
終了ボタン905と、入力映像901中に指定した2本
のスリット902と903との距離を表示する領域90
6(本例ではあらかじめ測定しておいた「5m」の値が
表示されている)と、移動体の数と向きと速度と移動体
の画像などの一台ずつの調査結果を表示する領域907
と、最終的な移動体の数や移動体の平均速度を表示する
領域908が存在する。
【0054】入力映像901と2本のスリット902,
903の配置の指定は、図6と同様とする。調査開始ボ
タン904を押下すると、移動体の向きと台数と速度の
調査処理が開始し、調査終了ボタン905を押下する
と、該調査処理を終了する。
【0055】以下に、該調査処理について簡単に説明す
る。調査の開始時には、右向きの車両台数と、左向きの
車両台数と、合計速度値を0に初期化する。その後移動
体を検出するたびに、結果領域907に移動体検出情報
を追加表示する。本例では、移動体検出情報の表示方法
として、図中の921のように、上から移動体画像、移
動体検出時刻、移動体の速度、移動体の向きを順に表示
している。
【0056】移動体検出時の処理では、この他にも、右
向きの車両台数または左向きの車両台数をカウントする
処理と、移動体の平均速度を計算する処理と、これらの
処理結果を、合計結果表示領域908に表示する処理と
を行う。移動体の平均速度の計算方法については、移動
体を検出するごとに移動体の速度値を合計速度値に累算
し、その合計速度値をこれまでの全移動体台数(右向き
台数と左向き台数の和)で割ることによって求めればよ
い。
【0057】本発明の3つ目の実施例として、複数のス
リットを格子状に配置させることによって物体の位置を
追尾する追尾監視カメラの1実施例について以下に述べ
る。
【0058】図10は、本追尾監視カメラで用いるスリ
ットの格子状配置方法と、そのスリットを用いた、移動
体の位置を判定する条件を説明する図である。図11
は、図10で示した移動体位置判定方法を用いた追尾監
視カメラの画面表示例である。図12は、追尾監視カメ
ラの移動体イベント組合せ条件を判定する処理フローで
ある。なお、本追尾監視カメラは、図5に示したシステ
ム構成により実現され、また、図5の移動体組合せ判定
手段は、図3の全体フローと、図12のフローで示す手
続き1201によって実現されるものとする。
【0059】図10は、本追尾監視カメラで用いるスリ
ットの格子状配置方法と、そのスリットを用いた、移動
体の位置を判定する条件を説明する図である。本例で
は、入力されたTV映像1000の中に存在する移動体
1041の縦の位置と横の位置を、格子状に配列された
スリット群(1011から1015と、1021から1
024)を用いて検出する。
【0060】このスリット群は、縦線の形状のスリット
を複数並べた、スリットV1(1011)、スリットV
2(1012)、スリットV3(1013)、スリット
V4(1014)、スリットV5(1015)から構成
される縦スリット群と、同様に横線の形状のスリットを
複数並べた、スリットH1(1021)、スリットH2
(1022)、スリットH3(1023)、スリットH
4(1024)から構成される横スリット群とを、直交
に配置することによって、構成される。縦スリット群の
各々のスリットは、幅Lw(1032)の間隔で平行に
並んでいる。同様に、横スリット群の各々のスリット
は、高さLh(1031)の間隔で平行に並んでいる。
【0061】なお、これらのスリットを実現するため
の、図5のシステム構成中の移動体検出手段1(51
2)から移動体検出手段n(522)は、スリットに移
動体が重なった場合、移動体検出イベントを発行するも
のとする。具体的には、図2の移動体検出手段の実現方
法において、画像変化量がしきい値a(213)を超え
ている間、つまり時刻T2(222)から時刻T3(2
23)までの区間と、時刻T4(224)以降の区間に
おいて、常に移動体検出イベントが発行されるものとす
る。また、移動体検出情報のスリット識別子として、図
10に示したスリットの一本一本を識別するために、
“V1”、“V2”、“H1”、“H4”といったスリ
ットの名称に値する文字列を設定されるものとする。
【0062】次に、以上で述べたスリット群を用いて移
動体の存在する位置を判定する方法について説明する。
スリットV2(1012)とスリットH2(1022)
の交点上に移動体が存在する場合、スリットV2(10
12)とスリットH2(1022)の両方に移動体検出
イベントが発生することとなる。このように、ある番号
xとyにおいて(x=1〜5,y=1〜4)、移動体が
存在する場合、スリット“Vx”とスリット“Vy”に
て移動体検出イベントが発生することが分かる。ここ
で、“Vx”という表記は、番号xの値により、“V
1”“V2”“V3”“V4”“V5”と変化するスリ
ット識別子を表し、同様に“Hy”という表記は、“H
1”“H2”“H3”“H4”のスリット識別子を表す
ものとする。以降にて同様の表記をした場合、ここに示
した意味を表すものとする。
【0063】以上をまとめると、ある位置(x,y)で
の移動体検出条件Cxy(1001)は、ある2つのイ
ベントに対する移動体検出情報E1,E2を用いること
により、次のように定義される:「E1.id=“V
x”かつE2.id=“Hy”、但し、|E1.tim
e−E2.time|<Δt」。ここで、「|E1.t
ime−E2.time|<Δt」とは、移動体検出イ
ベントE1と移動体検出イベントE2が、ほぼ同時期に
発生したことを表す制約条件を表し、Δtはあらかじめ
固定値を設定しておくものとする。
【0064】図11は、図10で示した移動体位置判定
方法を用いた追尾監視カメラの画面表示例である。追尾
監視カメラを実現するウィンドウ1101は、入力され
たTVカメラ映像を表示する領域1110と、 TVカ
メラ映像のうち、移動体1114が存在する部分111
3だけを拡大表示する拡大映像表示領域1120と、移
動体の追尾処理を開始させる追尾開始ボタン1131
と、移動体追尾処理を終了させる追尾終了ボタン113
2、から構成される。なお、TVカメラ映像表示領域1
110中に表示されている格子状の線(1111や11
12やそれらに平行する直線)は、スリットを表してい
る。これらスリットの詳細な配置方法や実現方法は、図
10の説明から自ずと明らかである。
【0065】図12は、図11の追尾監視カメラの実現
方法のうち、イベント組合せ条件判定の処理について、
詳しく説明するものである。手続き1201は、図3に
示した移動体組合せ判定手段の処理フローの中のステッ
プ317から呼ばれる手続きであり、入力は過去T秒間
のイベントリストであり、出力は移動体の検出有無フラ
グfと、移動体検出情報eoである。なお、本追尾監視
カメラでは、イベントリスト時間長Tを極短い時間であ
る0.1秒に、イベント組合せ条件の数を1に指定して
いる(1202)。
【0066】手続き1201は、大きく分けて、イベン
トリストを縦スリット群のイベントリストと横スリット
のイベントリストに分類する処理と、その後分類された
縦横のイベントリストの組み合わせから、移動体の存在
位置を判定していく処理の2つから構成される。
【0067】まず、イベントリストを先頭から末尾にた
どりながら、リストの要素eの識別子が“Hy”である
横スリットの検出イベントだけを抽出し、この結果を元
に新たなイベントリストLhを作成する(1211)。
同様に、イベントリストから、リストの要素eの識別子
が“Vx”である縦スリットの検出イベントだけを抽出
し、この結果を元に新たなイベントリストLvを作成す
る(1212)。
【0068】その後、以下に示すステップによって、分
類された縦横のイベントリストの組み合わせから、移動
体の存在位置を判定していく処理を行なっていく。一般
に、移動体の存在する縦横スリットの交点(例えば図1
0のスリットV2(1012)とスリットH2(102
2)の交点(1051)など)は、複数存在する。以降
の処理では、これら複数個のスリット交点を含む最小の
矩形領域を求め、その値を、変数x1(矩形左位置を意
味する),y1(同矩形上位置),x2(同矩形右位
置),y2(同矩形下位置)に代入する処理を行なって
いる。
【0069】ステップ1214では、まず矩形領域を表
す変数x1,y1,x2,y2と、スリット交点の個数
nとを初期化する(1214)。以降のステップにて、
最小の矩形領域を求めるため、x1を∞、y1を∞、x
2を0、y2を0に初期化している。また交点の個数n
を0に初期化している。
【0070】次に、一時変数ehに横イベントリストL
hの先頭を代入し(1215)、横イベントリストLh
の末尾まで読み出していくループ(1216)を行な
う。横イベントリストも最後の要素のポインタ値はni
lであるので、ehの値がnilになるまでループす
る。
【0071】横イベントリストのループ(1216)の
中では、まず、移動体イベントの検出情報ehの識別子
id(この値は先に分類したので必ず“Hy”である)
から、横スリットの行番号yを求め、その行番号yから
スリット“Hy”のy座標を求め、変数syに代入する
(1221)。スリット“Hy”からy座標を求めるに
は、例えば、各スリットの識別子とそのxy座標をテー
ブル化しておき、イベント情報ehから得たスリットの
行番号またはehの識別子から、テーブルを引くことに
よって、そのスリットのxy座標を求めることができ
る。
【0072】ステップ1222では、横イベントリスト
の順次読み出しのために、イベント情報ehの次ポイン
タeh.nextをehに代入している(1222)。
【0073】次のステップ1223,1224によって
縦イベントリストLvの全要素に対してループを行なっ
ている。まず、縦イベントリストLvの先頭要素を変数
evに代入し(1223)、そのevの値がnilにな
るまで、縦イベントリストを末尾に向かって読み出すル
ープを行なう(1224)。
【0074】縦イベントリストの読み出しループの中で
は、縦スリットと横スリットの交点が見つかったとして
矩形計算処理を行なう。まず、交点の数を表す変数nに
1を加算する(1241)。次に、移動体イベントの移
動体検出情報evの識別子id(この値は先に分類した
ので必ず“Vx”である)から、縦スリットの行番号x
を求め、その行番号xからスリット“Vx”のx座標を
求め、変数sxに代入する(1242)。このステップ
の実現方法についても、ステップ1221と同様の手法
を適用すればよい。
【0075】ステップ1243では、縦イベントリスト
の順次読み出しのために、イベント情報evの次ポイン
タev.nextをevに代入している(1243)。
以降のステップでは、ステップ1221と1242にて
求めたスリット交点の座標sx,syを元に、移動体の
存在する最小矩形を更新する処理を行なう。
【0076】矩形左位置の更新処理として、スリット交
点位置sxが、現左位置x1より小さい場合(124
4)、現左位置x1をスリット交点位置sxの値に更新
する(1254)。
【0077】矩形上位置の更新処理として、スリット交
点位置syが、現上位置y1より小さい場合(124
5)、現上位置y1をスリット交点位置syの値に更新
する(1255)。
【0078】矩形右位置の更新処理として、スリット交
点位置sxが、現右位置x2より大きい場合(124
6)、現右位置x2をスリット交点位置sxの値に更新
する(1256)。
【0079】矩形下位置の更新処理として、スリット交
点位置syが、現下位置y2より大きい場合(124
7)、現下位置y2をスリット交点位置syの値に更新
する(1257)。
【0080】以上の2つのループ1216と1224を
行なうことにより、縦横スリットの交点の数nと、移動
体が存在する最小矩形領域x1,y1,x2,y2が求
まる。
【0081】本手続き1201の最後の処理として、移
動体の存在有無を判定する。縦横スリットの交点の数n
の値が0より大きい場合(1217)、移動体ありと判
断し、移動体検出有無フラグfを真にする(123
1)。次に先に求めた最小矩形を元に追尾カメラで映像
を拡大する場所を計算し、その結果を出力する移動体検
出イベントの移動体検出情報eoに設定する(123
2)。映像を拡大する領域としては、先に求めた最小矩
形の上下それぞれにスリットの縦間隔である図10のL
h(1031)の半分の余裕領域を追加し、同様に最小
矩形の左右それぞれにスリットの横間隔である図10の
Lw(1032)の半分の余裕領域を追加する。
【0082】縦横スリットの交点の数nの値が0の場合
(1217)、移動体なしと判断し、移動体検出有無フ
ラグfを偽にする(1233)。
【0083】以上のようなイベント組合せ条件判定処理
を用意することにより、映像中に移動体が存在する場
合、図5の移動体検出組合せ判定手段502が移動体検
出イベントを発行する。結果出力手段503では、移動
体検出イベントが発生した場合、その移動体検出情報に
格納されている映像拡大領域に従って、入力となるTV
カメラ映像の一部を図11の拡大映像領域1120のよ
うに拡大表示する。
【0084】もちろん上記以外にも、あらかじめ用意し
ておいたもう一台の高精細TVカメラまたは高精細デジ
タルスチルカメラなどにより、指定された拡大領域の部
分を別途詳細に撮影することも可能である。
【0085】さらには、移動体の矩形領域1113の中
央xy座標とTVカメラ映像1120の中央xy座標と
の差分ベクトルから、入力TVカメラの向きやズーム度
合いを制御することも可能である。ただしこの場合、T
Vカメラを動かすと元となる背景画像も更新されるた
め、TVカメラを動かした際は、一度追尾処理を終了
し、再度追尾処理を開始するなどにより、背景を新しく
更新する必要がある。なお、該差分ベクトルを求める際
の移動体の矩形領域の中央xy座標の代わりとして、ス
リット交点群の重心のxy座標を用いることができる。
重心のxy座標を求めるには、図12のループ1224
の際に、スリット交点座標(sx,sy)の累算を行な
い、ループ終了後、累算したxy座標をスリット交点数
nで割ればよい。
【0086】本発明の4つ目の実施例として、複数本の
スリットを設定する画面入力方法の1実施例について以
下に述べる。
【0087】図13は、複数本のスリットの条件を設定
する画面の1実施例である。図14は、本実施例で用い
るスリット位置情報の配列構造である。図15は、本実
施例での画面初期化処理を表すフローである。図16
は、本実施例での画面表示時のユーザ操作イベントに対
応する処理フローである。図17は、複数スリットの条
件設定において、入力映像を複数にした場合の設定画面
の1実現例である。
【0088】図13は、複数本のスリットの条件を設定
する画面の1実施例である。スリット条件設定画面(1
300)には、現在選択するスリットの番号を指定する
チェックボックス1(1301)、チェックボックス2
(1302)、チェックボックス3(1303)、と、
スリットの座標位置を入力可能なエディットボックス群
1305と、入力映像とスリット位置を表示する領域
(1310)と、スリットの組合せ条件を指定するエデ
ィットボックス(1306)と、設定の反映を表すOK
ボタン(1320)と、設定を取り消すキャンセルボタ
ン(1321)から構成されている。入力映像表示領域
(1310)には、現在指定されているスリット群(1
311、1312)が表示され、そのうち選択中のスリ
ット(1312)は太線などにより強調表示される。ス
リット番号を指定するチェックボックス1から3まで
(1301、1302、1303)は、どれか1つだけ
が選択可能になるように設定されている。
【0089】本画面では、3つのスリットの条件を設定
できるようになっている。次にその画面の操作方法につ
いて概説する。まず、チェックボックス(1301、1
302、1303)を指定することにより、現在設定す
るスリットを1つ選択する。この際、エディットボック
ス群1305に、各々のスリットの左(変数x1)、上
(同y1)、右(同x2)、下(同y2)の現在の座標
値が表示されるので、ユーザは必要に応じて数字を修正
する。ユーザは必要ならば、チェックボックス(130
1、1302、1303)の選択番号を変更して、次の
スリット情報を変更できる。複数のスリットの組合せ条
件を設定するには、エディットボックス(1306)
に、スリット番号「1」「2」「3」と「and」「o
r」などの演算子を用いた条件式を記述する。図13の
スリット組みあわせ条件では、「1and 2 or
3」となっており、これは、「スリット1とスリット2
とで移動体検出イベントが発生し、かつ、スリット3で
は移動体検出イベントが発生していない場合」、を表し
ている。
【0090】図14は、本実施例で用いるスリット位置
情報の配列構造である。スリット位置情報の配列sli
tpos[](1401)は、配列の1要素が1本のス
リットの位置情報を表している。配列(1401)の1
要素には、スリットの左位置(1421,要素x1)、
上位置(1422,同y1)、右位置(1423,同x
2)、下位置(1424,同y2)が格納されている。
図14の配列1401には、スリット1の位置情報sl
itpos[1](1411)と、スリット2の位置情
報slitpos[2](1412)と、スリット3の
位置情報slitpos[3](1413)とが格納さ
れている。
【0091】図15と図16は、本実施例でのスリット
位置入力方法の処理フローである。図15は、本実施例
での画面初期表示処理を表すフローで、図16は、本実
施例での画面表示中のユーザ操作イベントに対応する処
理フローである。
【0092】まず、図15の画面初期表示処理フローを
説明する。ユーザがスリット条件を設定しようとして、
図13の画面1300を表示した場合、初期表示処理
(1501)実行される。まずループ(1511)によ
り、現在移動体組合せ検出装置で設定されているスリッ
ト位置情報、つまり複数個の移動体検出手段の設定情報
を、配列slitposに取得する。ループ(151
1、ループカウンタi)内では、i番目の移動体検出手
段のスリット位置情報を、スリット位置配列slitp
os[i]のx1(図14の1421の欄),y1(同
1422),x2(同1423),y2(同1424)
に設定する。次に、移動体組合せ判定装置から現在設定
されている検出条件の文字列を得て、エディットボック
ス1306に設定する(1512)。この検出条件の取
得方法については後述する。次に、入力映像表示領域1
310に入力TV映像を常時表示させる(1513)。
その後現選択スリット番号の初期化として、選択スリッ
ト番号selに1を設定し、チェックボタン1301の
選択状態をONにする(1514)。その後、現在のス
リット位置を表示するために、先に設定したスリット位
置情報の配列slitposと、選択スリット番号se
lとをパラメタとしてスリット表示処理1502を呼び
出す(1515)。初期表示処理の最後として、OKボ
タン(1320)またはキャンセルボタン(1321)
が押されるまで、ユーザの画面操作に対応する処理を繰
り返す。このために、ループ終了フラグfを用意し、ル
ープ開始前に「偽」に初期化し(1516)、その後ル
ープ終了フラグfが真になるまでループする(151
7)。このループ終了フラグfは、OKボタン(132
0)またはキャンセルボタン(1321)が押されると
「真」になる。ループ内では、キーボードやマウスなど
のユーザ操作イベントを取得(1523)した後、ユー
ザ操作イベントに対応する処理を行う(1524)。な
お、スリット位置の表示処理(1502)では、スリッ
ト3本分のループ(1531、ループカウンタi)によ
り、3本のスリットを表示する処理をする。ループ15
31内では、まずこれから表示するスリット番号iと現
在選択しているスリット番号selとを比較し(153
2)、これから表示するスリットが現在選択するスリッ
トの場合、これから描画する線の太さを太くし(154
1)、そうでない場合は、これから描画する線の太さを
細くする(1543)。描画する線の太さの設定には、
たとえばOSの描画属性の変更によって実現できる。こ
の描画する線の太さの変更の後、i番目のスリット位置
情報slitpos[i]の値に従って、入力TV映像
表示領域(1310)上の座標(x1,y1)から座標
(x2,y2)までの線を描画する。
【0093】図16は、本実施例での画面表示時のユー
ザ操作イベントに対応する処理フローである。ユーザ操
作イベント処理(1601)では、まずユーザイベント
の種別を判断して各々の操作イベントに対応する処理を
行う(1611)。設定するスリット番号を指定するチ
ェックボタン(1301,1302,1303)の選択
状態が変化した場合、選択スリット番号selを現在の
チェックボックスの番号の値に更新し(1621)、ス
リットを再描画する(1622)。スリット位置指定エ
ディットボックス群(1305)の値が変化した場合、
該エディットボックスの値x1,y1,x2,y2を、
スリット位置配列slitposのsel番目であるs
litpos[sel]に格納し(1631)、その後
スリット位置の再描画を行う(1632)。OKボタン
(1320)が押下された場合、3本分のスリットに対
してループ(1641、ループカウンタi)することに
よって、スリット位置配列のi番目であるslitpo
s[i]の位置情報x1,y1,x2,y2を、i番目
の移動体検出手段のスリット位置情報として設定する
(1661)。その後検出条件を設定するエディットボ
ックス1306の文字列を、移動体組合せ判定装置の検
索条件として設定する(1642)。
【0094】ここで文字列を検索条件式として移動体組
合せ判定装置に設定する実現方法としては、コンパイラ
などで用いる構文解析処理によって、条件文字列を条件
式を表した木構造データに変換して、その木構造データ
を移動体組合せ判定手段に設定すればよい。移動体組合
せ判定手段では、入力となる移動体検出手段が出力した
移動体検出情報を元に、上記木構造条件式を葉ノードか
ら計算順次根のノードに向かってand,orなどの演
算をすれば、最終的な条件の評価値(真または偽)を得
ることができる。また逆に、木構造条件式を文字列に変
換するには、木構造のツリーウォークなど、一般的に知
られている方法に従って木構造を文字列化すればよい。
【0095】移動体検出手段のスリット位置情報と、移
動体組合せ判定手段の検出条件とを更新した後、ループ
終了フラグfを真にする(1643)ことによって、ユ
ーザ操作イベント処理ループ(1516)を終了させ
る。キャンセルボタン(1321)が押下された場合、
移動体検出手段のスリット位置情報の更新は行わず、ル
ープ終了フラグfを真にして(1651)、ユーザ操作
イベント処理ループ(1516)を終了させる。
【0096】以上が図13の複数スリット条件設定画面
の1実施例であるが、上記方法以外にも次のような実施
方法によって、複数スリット条件設定画面を実現するこ
とも可能である。たとえば、スリット位置指定エディッ
トボックス群1305によるスリットの位置座標の指定
方法を変更して、入力映像表示領域1310上でマウス
をドラッグするなどにより、直接的にスリット線の位置
を指定することもできる。この場合、ドラッグの開始点
とドラッグの終了点をスリットの左右上下の位置とすれ
ばよい。
【0097】次の例として、入力映像表示領域1310
での表示方法を上記のようなTV映像ではなく、本設定
画面を表示した時点のTV映像中の1フレーム画像を表
示することがあげられる。映像表示を静止画表示にすれ
ば、コンピュータの処理負荷を軽減できる。
【0098】その他の例として、移動体組合せ条件設定
エディットボックスに指定する条件文に、「1 aft
er 2」などの時間制約条件を指定可能にすることで
ある。この条件文は、「スリット2で移動体検出イベン
トを発行された後に、スリット1で移動体検出イベント
が発生した」ことを表す。これを実現するには、2つ目
の実施例「2本のスリットを用いた移動体の向きと速度
の判定方法」で示したような、過去のイベントリストを
たどって、対応するスリット識別子を探す処理によって
実現することができる。
【0099】最後の例として、図17に示されるよう
な、入力TV映像が、1つではなく、複数ある場合の複
数スリット条件設定画面があげられる。このような複数
の入力映像のスリット条件設定が必要となる場合とし
て、TV会議システムや集中監視センタなどでのTV映
像があげられる。図17は、TV会議映像に対するスリ
ット条件設定を行う画面の一部であり、ここでは、図1
3の入力映像表示領域1310の部分を変更し、多地点
映像表示領域1710としている。多地点映像表示領域
1710には、4地点のTV会議の映像(1711,1
712,1713,1714)が表示され、それぞれの
映像に対して、4本のスリット(1731,1732,
1733,1734)位置を表示している。
【0100】なお、図17には明記していないが、図1
7のようなTV会議映像でのスリット設定として、次の
ような全員着席したことを表す条件を考えることができ
る。まず、1つの入力映像1711に人物が着席した条
件として、「スリット1731に人物が侵入たイベント
が発生し、かつ、その後スリット1731にて人物が静
止したことによる背景更新のイベントが発生した場合」
を定義する。したがって、全員着席の条件は、前記と同
様の条件が、4つの入力映像(1711,1712,1
713,1714)に含まれる4つのスリット(173
1,1732,1733,1734)の、全てにおいて
発生した場合として、定義できる。
【0101】
【発明の効果】本発明によれば、入力映像中に複数個の
監視着目領域を設けることができるため、1モニタ画像
中に複数のTVカメラ画像などを含む入力映像などに対
して、どのTVカメラで移動体を検出したのか等を容易
に判定できる。
【0102】また、複数個ある監視着目領域を、格子状
や平行線上など様々に組み合わせた検出条件を加えるこ
とによって、移動体の向きや速度を判断したり、移動体
を追尾したり、移動体の静止状態を把握したりするな
ど、移動体の内容をより精密に判定できるようになる。
【図面の簡単な説明】
【図1】本発明の一実施例における移動体組合せ検出装
置の構成図である。
【図2】移動体検出手段の一実現方法を説明する図であ
る。
【図3】本発明の一実施例における移動体組合せ判定手
段の処理手順を説明する処理フロー図である。
【図4】移動体組み合わせ判定手段が内部に持つ移動体
検出イベントの列(イベントリスト)の一実現例を説明
する説明図である。
【図5】本発明の第2の実施例における1台のTVカメ
ラを用いた移動体組合せ検出装置のシステム構成図であ
る。
【図6】本発明の一実施例における2スリットによる移
動体の向きと速度の判定方法を説明する図である。
【図7】本発明の一実施例における2スリットによる移
動体の向きのイベント組合せ条件判定を説明する説明図
である。
【図8】本発明の一実施例における2スリットによるイ
ベント組合せ条件判定の処理フロー図である。
【図9】本発明の一実施例における2スリットによる移
動体カウント装置の画面出力例を説明する図である。
【図10】本発明の一実施例における追尾監視カメラで
用いる格子状スリット配置方法と移動体の位置の判定方
法を説明する図である。
【図11】本発明の実施例における移動体の位置判定方
法を用いた追尾監視カメラの画面の表示例を説明する図
である。
【図12】本発明の実施例における追尾監視カメラの移
動体イベント組合せ判定の処理フロー図である。
【図13】本発明の一実施例における複数本のスリット
条件を設定する画面を説明する説明図である。
【図14】本発明の一実施例におけるスリット条件指定
画面でのスリット位置情報の配列構造を説明する説明図
である。
【図15】本発明の一実施例におけるスリット条件指定
画面での画面初期化処理フロー図である。
【図16】本発明の一実施例におけるスリット条件指定
画面でのユーザ操作イベントに対応する処理フロー図で
ある。
【図17】本発明の一実施例における複数の映像が入力
された場合のスリット条件指定画面を説明する図であ
る。
【符号の説明】
100 コンピュータで実現された移動体組合せ検出装
置 101 移動体組合せ判定手段 102 移動体組合せ判定手段が出力する移動体検出情
報 103 結果出力手段 104 ディスプレイ 110 1つ目のTVカメラ 111 1つ目の映像入力手段 112 1つ目の移動体検出手段 113 1つ目の移動体検出手段が出力する移動体検出
情報 110 n個目のTVカメラ 111 n個目の映像入力手段 112 n個目の移動体検出手段 113 n個目の移動体検出手段の移動体検出情報 130 外部入力手段 132 外部検出手段 133 外部検出手段が出力する検出情報
───────────────────────────────────────────────────── フロントページの続き (72)発明者 橋本 進二 秋田県南秋田郡天王町字長沼64 アキタ電 子株式会社内 (72)発明者 大木 康幸 神奈川県横浜市戸塚区戸塚町5030番地 株 式会社日立製作所ソフトウェア開発本部内

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】映像を入力する手段と入力された映像から
    移動体を検出する手段とを組にした手段を少なくとも1
    つ設け、それぞれの組から出力される移動体検出結果を
    判定する移動体組合せ判定手段と、検出された結果を出
    力する手段から構成される移動体組合せ検出装置におい
    て、 上記移動体を検出する手段として、入力された映像に対
    して移動体の有無の判定を行なう着目領域を設定する手
    段と、ある特定のフレームにおける着目領域のデータと
    各フレームでの着目領域のデータとの相関を算出する手
    段と、算出された少なくとも1つの相関値のパターンか
    ら、移動体の存在有無や背景画像の変更などの移動体検
    出イベントを決定する手段を有し、上記移動体組合せ判
    定手段として、それぞれの移動体検出手段から出力され
    る移動体検出イベントやそれに付属する移動体検出情報
    を元に最終的な移動体検出を決定する手段を有すること
    を特徴とした移動体組合せ検出装置。
  2. 【請求項2】請求項1記載の移動体組合せ検出装置にお
    いて、移動体組合せ判定手段の移動体検出装置以外の入
    力として、外部入力手段と外部検出手段を用意し、それ
    を組み合わせて検出することを特徴とする移動体組合せ
    検出装置。
  3. 【請求項3】請求項1記載の移動体組合せ検出装置にお
    いて、移動体検出手段から出力される移動体検出情報と
    して、複数個ある移動体検出手段を識別する識別子を有
    することを特徴とする移動体組合せ検出装置。
  4. 【請求項4】請求項1記載の移動体組合せ検出装置にお
    いて、各々の移動体検出装置で用いる着目領域を、直線
    や曲線といった一筆書きが可能な線状とすることを特徴
    とする移動体組合せ検出装置。
  5. 【請求項5】請求項1記載の移動体組合せ検出装置にお
    いて、各々の移動体検出装置で用いる着目領域を、枠状
    や円状といった一筆書きが可能な閉曲線状とすることを
    特徴とする移動体組合せ検出装置。
  6. 【請求項6】請求項1と請求項3に記載の移動体組合せ
    検出装置において、複数個の移動体検出装置で用いる着
    目領域を、複数個の線分からなる着目領域として配置す
    ることを特徴とする移動体組合せ検出装置。
  7. 【請求項7】請求項1と請求項3に記載の移動体組合せ
    検出装置において、複数個の移動体検出装置で用いる着
    目領域を、格子状に配置することを特徴とする移動体組
    合せ検出装置。
  8. 【請求項8】請求項1と請求項3に記載の移動体組合せ
    検出装置において、複数個の移動体検出装置で用いる着
    目領域を、十字状に配置することを特徴とする移動体組
    合せ検出装置。
  9. 【請求項9】請求項1記載の移動体組合せ検出装置にお
    いて、映像入力手段と移動体検出手段の組のうち、移動
    体組合せ判定手段が不必要と判断した組は使用しないこ
    とを、移動体組合せ判定装置の判定結果によって、制御
    できることを特徴とする移動体組合せ検出装置。
  10. 【請求項10】請求項1記載の移動体組合せ検出装置に
    おいて、移動体組合せ判定手段の実現方法として、過去
    一定時間分の移動体検出情報を格納することを特徴とす
    る移動体組合せ検出装置。
  11. 【請求項11】入力された映像に対して移動体の有無の
    判定を行なう着目領域を設定し、ある特定のフレームに
    おける着目領域のデータと各フレームでの着目領域のデ
    ータとの相関を算出し、算出された少なくとも1つの相
    関値のパターンから、移動体の存在有無や背景画像の変
    更などの移動体検出イベントを決定し、上記に示した移
    動体の検出方法を、それぞれ違う入力映像、着目領域、
    相関値パターンに対して複数分行ない、それぞれの移動
    体検出方法によって得られた移動体検出有無やそれに付
    属する移動体検出情報を元に最終的な移動体検出を決定
    することを特徴とした移動体組合せ検出方法。
  12. 【請求項12】指定された映像から移動体の数をカウン
    トする移動体カウント装置において、請求項1から11
    までに記載の移動体組合せ検出装置と、該装置が出力し
    た検出イベントの数をカウントする装置と、カウントし
    た移動体の数を出力する装置を有することを特徴とし
    た、移動体カウント装置。
  13. 【請求項13】請求項1と請求項3に記載の移動体組合
    せ検出装置において、少なくとも2つの移動体検出装置
    で得られた移動体検出イベントを用いて、移動体の向き
    または速度を求めることを特徴とする移動体組合せ検出
    装置。
  14. 【請求項14】請求項1と請求項3に記載の移動体組合
    せ検出装置において、請求項7に記載の格子状の監視着
    目領域により検出された移動体検出情報の組み合わせか
    ら、移動体の位置と移動体の大きさを判定することを特
    徴とした、移動体位置判定装置。
  15. 【請求項15】請求項1記載の移動体組合せ検出装置に
    おいて、複数の移動体検出装置で用られる複数個の監視
    着目領域を1つの画面上で設定することを特徴とした、
    移動体検出条件設定方法。
JP29994897A 1997-10-31 1997-10-31 移動体組合せ検出装置および方法 Expired - Fee Related JP3567066B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP29994897A JP3567066B2 (ja) 1997-10-31 1997-10-31 移動体組合せ検出装置および方法
EP98120418A EP0913799A3 (en) 1997-10-31 1998-10-28 Mobile object detection apparatus and method
US09/182,436 US6584211B1 (en) 1997-10-31 1998-10-30 Mobile object combination detection apparatus and method
US09/832,136 US6654481B2 (en) 1997-10-31 2001-04-11 Mobile object combination detection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29994897A JP3567066B2 (ja) 1997-10-31 1997-10-31 移動体組合せ検出装置および方法

Publications (2)

Publication Number Publication Date
JPH11134506A true JPH11134506A (ja) 1999-05-21
JP3567066B2 JP3567066B2 (ja) 2004-09-15

Family

ID=17878899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29994897A Expired - Fee Related JP3567066B2 (ja) 1997-10-31 1997-10-31 移動体組合せ検出装置および方法

Country Status (3)

Country Link
US (2) US6584211B1 (ja)
EP (1) EP0913799A3 (ja)
JP (1) JP3567066B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002109547A (ja) * 2000-09-27 2002-04-12 Hitachi Ltd 移動体検出測定方法、その装置および移動体検出測定プログラムを記録した記録媒体
JP2007018324A (ja) * 2005-07-08 2007-01-25 Central Res Inst Of Electric Power Ind 画像処理による侵入物体検出装置および方法およびプログラム
JP2010020808A (ja) * 1999-06-01 2010-01-28 Fujitsu Microelectronics Ltd 移動物体認識方法及び装置
KR101445362B1 (ko) * 2012-10-08 2014-09-30 주식회사 하이트론씨스템즈 영상 판독 장치
JP2016139370A (ja) * 2015-01-29 2016-08-04 株式会社LinkPro 画像処理装置

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPP839199A0 (en) * 1999-02-01 1999-02-25 Traffic Pro Pty Ltd Object recognition & tracking system
US20040189804A1 (en) * 2000-02-16 2004-09-30 Borden George R. Method of selecting targets and generating feedback in object tracking systems
US7319479B1 (en) * 2000-09-22 2008-01-15 Brickstream Corporation System and method for multi-camera linking and analysis
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US9892606B2 (en) 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
US7200246B2 (en) * 2000-11-17 2007-04-03 Honeywell International Inc. Object detection
US7424175B2 (en) 2001-03-23 2008-09-09 Objectvideo, Inc. Video segmentation using statistical pixel modeling
US6985603B2 (en) * 2001-08-13 2006-01-10 Koninklijke Philips Electronics N.V. Method and apparatus for extending video content analysis to multiple channels
KR100459476B1 (ko) * 2002-04-04 2004-12-03 엘지산전 주식회사 차량의 대기 길이 측정 장치 및 방법
FR2842637B1 (fr) * 2002-07-22 2004-10-01 Citilog Procede pour detecter un incident ou analogue sur une portion de voie
JP2004088633A (ja) * 2002-08-28 2004-03-18 Yazaki Corp 車両用映像配信システム、車両用映像配信装置
US7729511B2 (en) * 2002-09-24 2010-06-01 Pilz Gmbh & Co. Kg Method and device for safeguarding a hazardous area
US7956889B2 (en) * 2003-06-04 2011-06-07 Model Software Corporation Video surveillance system
KR20050033949A (ko) * 2003-10-07 2005-04-14 삼성전자주식회사 휴대용 단말기의 오토줌임 제어방법
US20050110913A1 (en) * 2003-11-07 2005-05-26 Vitito Christopher J. Automobile entertainment system
US7171024B2 (en) * 2003-12-01 2007-01-30 Brickstream Corporation Systems and methods for determining if objects are in a queue
US7616782B2 (en) * 2004-05-07 2009-11-10 Intelliview Technologies Inc. Mesh based frame processing and applications
US7639135B2 (en) * 2004-10-28 2009-12-29 Microstrain, Inc. Identifying substantially related objects in a wireless sensor network
JP4498269B2 (ja) * 2005-11-30 2010-07-07 株式会社デンソーアイティーラボラトリ レーダ信号処理装置
JP4541316B2 (ja) 2006-04-06 2010-09-08 三菱電機株式会社 映像監視検索システム
KR101392294B1 (ko) 2006-04-17 2014-05-27 오브젝트비디오 인코퍼레이티드 통계적인 픽셀 모델링을 이용한 비디오 분할
US8014341B1 (en) 2006-05-08 2011-09-06 Embarq Holdings Company, Llc Method and intermediary device for reporting a civic address during an emergency call
US8045761B2 (en) * 2006-05-30 2011-10-25 Intelliview Technologies Inc. Detection of environmental conditions in a sequence of images
US9031207B2 (en) * 2006-12-18 2015-05-12 Centurylink Intellectual Property Llc System and method for providing location information for addressed based E-911 calls to public safety answering points
JP5152559B2 (ja) * 2007-07-19 2013-02-27 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US8290470B2 (en) 2007-08-13 2012-10-16 Centurylink Intellectual Property Llc System and method for providing location information to a public safety answering point during an emergency 911 call from a WiFi handset
JP4970195B2 (ja) * 2007-08-23 2012-07-04 株式会社日立国際電気 人物追跡システム、人物追跡装置および人物追跡プログラム
JP4415198B2 (ja) * 2007-08-30 2010-02-17 カシオ計算機株式会社 画像合成装置及びプログラム
US8964945B2 (en) 2007-09-28 2015-02-24 Centurylink Intellectual Property Llc System and method for providing location based E-911 of network access devices registered with a network gateway
US8289953B2 (en) 2007-10-16 2012-10-16 Centurylink Intellectual Property Llc System and method for providing location information to a public safety answering point during an emergency 911 call from a softphone
US8891749B2 (en) * 2008-02-21 2014-11-18 Centurylink Intellectual Property Llc System and method for providing emergency wireline telephone services to residences
US8364117B2 (en) * 2008-02-21 2013-01-29 Centurylink Intellectual Property Llc System and method for updating location information of voice-over-internet protocol based devices for E911 service
US8364113B2 (en) 2008-07-03 2013-01-29 Centurylink Intellectual Property Llc Data message service controller and method for handling emergency text messaging
US8976938B2 (en) * 2008-07-07 2015-03-10 Centurylink Intellectual Property Llc Deluxe emergency notification
US20120309340A1 (en) 2011-06-01 2012-12-06 Embarq Holdings Company, Llc System and method for communicating emergency information through messaging
US9491307B2 (en) * 2009-02-24 2016-11-08 Centurylink Intellectual Property Llc System and method for establishing pre-stored emergency messages
US20100296703A1 (en) * 2009-05-21 2010-11-25 Artis Llc Method and device for detecting and classifying moving targets
KR101789328B1 (ko) * 2010-01-13 2017-11-21 엘지전자 주식회사 무선통신 시스템에서의 이벤트 발생 알림 방법 및 장치
US8731829B2 (en) * 2010-05-31 2014-05-20 Nec Corporation Flow line detection system, flow line detection method, and flow line detection program
US8730396B2 (en) * 2010-06-23 2014-05-20 MindTree Limited Capturing events of interest by spatio-temporal video analysis
EP2627084A4 (en) * 2010-10-08 2015-06-03 Lg Electronics Inc IMAGE MONITORING DEVICE AND METHOD FOR DETECTING EVENTS THEREFOR
US8575527B2 (en) * 2010-11-10 2013-11-05 Lockheed Martin Corporation Vehicle having side portholes and an array of fixed EO imaging sub-systems utilizing the portholes
JP5893417B2 (ja) * 2012-01-24 2016-03-23 キヤノン株式会社 解析装置、制御方法、およびプログラム
US9147175B2 (en) 2013-03-14 2015-09-29 Mi-Jack Products, Inc. Dynamic inventory tracking and transfer system
US10373470B2 (en) 2013-04-29 2019-08-06 Intelliview Technologies, Inc. Object detection
FR3007878B1 (fr) * 2013-06-27 2016-10-21 Rizze Dispositif permettant a un systeme de video surveillance routier d'enregistrer le contexte d'un evenement en fonction de la presence d'un vehicule dans le champ de vision de la camera
US9299007B2 (en) * 2014-01-28 2016-03-29 Ncr Corporation Methods and apparatus for item identification using brightness compensation
CA2847707C (en) 2014-03-28 2021-03-30 Intelliview Technologies Inc. Leak detection
TWI518437B (zh) * 2014-05-12 2016-01-21 晶睿通訊股份有限公司 動態對焦調整系統及其動態對焦調整方法
US10943357B2 (en) 2014-08-19 2021-03-09 Intelliview Technologies Inc. Video based indoor leak detection
EP3392852A4 (en) * 2015-12-16 2019-08-21 Nec Corporation INTRUSION DETECTION DEVICE, SETTING ASSIST DEVICE, INTRUSION DETECTION METHOD, SETTING ASSIST METHOD, AND PROGRAM RECORDING MEDIUM
WO2018179202A1 (ja) * 2017-03-30 2018-10-04 日本電気株式会社 情報処理装置、制御方法、及びプログラム
JP6425847B1 (ja) * 2017-08-14 2018-11-21 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4103847A (en) * 1974-01-28 1978-08-01 Martin Marietta Corporation Line scan area signature detection method
AT348900B (de) * 1975-02-21 1979-03-12 Eumig Ueberwachungseinrichtung
SE394146B (sv) * 1975-10-16 1977-06-06 L Olesen Anordning for metning resp kontroll av ett foremals, i synnerhet ett fordons hastighet.
DE2617112C3 (de) * 1976-04-17 1982-01-14 Robert Bosch Gmbh, 7000 Stuttgart Verfahren zum Feststellen einer Bewegung bzw. einer Veränderung im Überwachungsbereich einer Fernsehkamera
US4959802A (en) * 1985-08-30 1990-09-25 Texas Instruments Incorporated Video bus for a vision system
US5296852A (en) * 1991-02-27 1994-03-22 Rathi Rajendra P Method and apparatus for monitoring traffic flow
CA2119327A1 (en) * 1993-07-19 1995-01-20 David Crawford Gibbon Method and means for detecting people in image sequences
DE4332753C2 (de) * 1993-09-25 1997-01-30 Bosch Gmbh Robert Verfahren zur Erkennung bewegter Objekte
ES2159320T3 (es) * 1994-08-24 2001-10-01 Seisma Ag Sistema y procedimiento de evaluacion de imagenes.
JP3569992B2 (ja) * 1995-02-17 2004-09-29 株式会社日立製作所 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム
US5729471A (en) * 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US5724475A (en) * 1995-05-18 1998-03-03 Kirsten; Jeff P. Compressed digital video reload and playback system
US5963664A (en) * 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
DE19603766A1 (de) * 1996-02-02 1997-08-07 Christian Gieselmann Verfahren zum Erkennen gerichteter Bewegungen sowie Alarmanlage zur Durchführung des Verfahrens
JPH09214946A (ja) * 1996-02-07 1997-08-15 Fujitsu General Ltd 移動体追尾カメラシステム
US5917958A (en) * 1996-10-31 1999-06-29 Sensormatic Electronics Corporation Distributed video data base with remote searching for image data features
US5884042A (en) * 1996-10-31 1999-03-16 Sensormatic Electronics Corporation Data identification in an intelligent video information management system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010020808A (ja) * 1999-06-01 2010-01-28 Fujitsu Microelectronics Ltd 移動物体認識方法及び装置
JP2002109547A (ja) * 2000-09-27 2002-04-12 Hitachi Ltd 移動体検出測定方法、その装置および移動体検出測定プログラムを記録した記録媒体
US6963658B2 (en) 2000-09-27 2005-11-08 Hitachi, Ltd. Method of detecting and measuring a moving object and apparatus therefor, and a recording medium for recording a program for detecting and measuring a moving object
US7308113B2 (en) 2000-09-27 2007-12-11 Hitachi, Ltd. Method of detecting and measuring a moving object and apparatus therefor, and a recording medium for recording a program for detecting and measuring a moving object
JP2007018324A (ja) * 2005-07-08 2007-01-25 Central Res Inst Of Electric Power Ind 画像処理による侵入物体検出装置および方法およびプログラム
KR101445362B1 (ko) * 2012-10-08 2014-09-30 주식회사 하이트론씨스템즈 영상 판독 장치
JP2016139370A (ja) * 2015-01-29 2016-08-04 株式会社LinkPro 画像処理装置

Also Published As

Publication number Publication date
JP3567066B2 (ja) 2004-09-15
US6654481B2 (en) 2003-11-25
EP0913799A3 (en) 2004-07-21
EP0913799A2 (en) 1999-05-06
US20010012379A1 (en) 2001-08-09
US6584211B1 (en) 2003-06-24

Similar Documents

Publication Publication Date Title
JP3567066B2 (ja) 移動体組合せ検出装置および方法
CN106096577B (zh) 一种摄像头分布地图中的目标追踪方法
TWI448977B (zh) 基於視訊分析的物件計數方法與裝置
US8553084B2 (en) Specifying search criteria for searching video data
US5793948A (en) Method and apparatus for recording and analyzing an interaction log
US20130286198A1 (en) Method and system for automatically detecting anomalies at a traffic intersection
JP2014153813A5 (ja) 画像処理装置、画像処理方法、及びプログラム
JP3828349B2 (ja) 移動体検出測定方法、その装置および移動体検出測定プログラムを記録した記録媒体
US11676389B2 (en) Forensic video exploitation and analysis tools
US8798318B2 (en) System and method for video episode viewing and mining
JP2007299381A (ja) 監視データベースへの問合せ方法
Tang et al. Video-based motion trajectory forecasting method for proactive construction safety monitoring systems
JP7359621B2 (ja) エリア設定支援装置、エリア設定支援方法及びエリア設定支援プログラム
JP2014149716A (ja) 物体追跡装置及びその方法
EP3945464A1 (en) A computing system and a computer-implemented method for sensing events from geospatial data
JP4110323B2 (ja) 情報出力方法及び装置及びプログラム及び情報出力プログラムを格納したコンピュータ読み取り可能な記憶媒体
CN103530612B (zh) 基于少量样本的快速目标检测方法
KR102030736B1 (ko) 다중 분산 영상 데이터 분석 장치
KR102262396B1 (ko) 실시간 경로 영역 자기 학습 방법 및 장치
Chen et al. Estimation of people movement in video based on optical flow block method and motion maps
JP4714872B2 (ja) 画像上重畳移動物体分割方法及び装置
Ng et al. Traffic Impact Assessment System using Yolov5 and ByteTrack
Yang et al. Research on application of object detection based on yolov5 in construction site
Nawaz et al. Tracking performance evaluation on PETS 2015 Challenge datasets
US20210287503A1 (en) Video analysis system and video analysis method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040614

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080618

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080618

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110618

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110618

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120618

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120618

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees