JP2006093955A - 映像処理装置 - Google Patents

映像処理装置 Download PDF

Info

Publication number
JP2006093955A
JP2006093955A JP2004275002A JP2004275002A JP2006093955A JP 2006093955 A JP2006093955 A JP 2006093955A JP 2004275002 A JP2004275002 A JP 2004275002A JP 2004275002 A JP2004275002 A JP 2004275002A JP 2006093955 A JP2006093955 A JP 2006093955A
Authority
JP
Japan
Prior art keywords
video
video processing
processing apparatus
image
detailed image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004275002A
Other languages
English (en)
Inventor
Hiroaki Yoshio
宏明 由雄
Hiroyoshi Ishibashi
弘義 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004275002A priority Critical patent/JP2006093955A/ja
Publication of JP2006093955A publication Critical patent/JP2006093955A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】 オブジェクトの確認を容易にする。
【解決手段】 カメラ200が撮影した映像データを表示手段107に表示させる映像処理装置11であって、前記映像データに含まれるオブジェクトの詳細画像を特定する特定手段103と、特定した詳細画像と前記映像データとを対応付ける処理を行う映像処理手段104とを備え、監視映像にオブジェクトの詳細画像を対応付けることで、カメラが撮影した監視映像のみではオブジェクトを把握し難い場合であっても、監視映像に対応付けた詳細画像を確認することが可能となり、オブジェクトの確認が容易となる。
【選択図】 図1

Description

本発明は、カメラが撮影した監視映像を表示装置に表示させる映像処理装置に関する。
近年、ピッキングや強盗、放火など、犯罪の増加を反映して、カメラ映像で不審人物等の監視を行う映像監視システムが急速に普及している。カメラ、モニタ、映像蓄積装置等を搭載した映像監視システムの一般的な利用形態は、システムの利用者(即ち、監視者)がカメラからの映像を監視し、不審な動きをしている人物等(以下、オブジェクトと称する)を発見した場合にカメラを遠隔操作して当該オブジェクトの詳細を把握し、オブジェクトを特定するというものである。映像監視システムは、映像データ通信のIP化や映像蓄積用メモリの大容量化によって数百規模の広域監視や長時間記録が可能となる一方、監視作業における負荷が増大している。監視作業は、画面の注視と集中力を要する重労働であるため、監視作業の効率化と確実な監視を目的とした種々の提案がこれまでにも行われている。
監視作業の支援や効率化を図る従来技術例としては、監視カメラで撮影したオブジェクトの特徴量を画像データベースに蓄積しておくことにより、時刻、場所、人物特徴を検索条件として指定して過去に撮影した映像から条件に合致するオブジェクトの検索が行える遠隔監視装置がある(例えば、特許文献1参照)。また、撮影したオブジェクトの顔位置を把握し、顔画像が画面の中央に表示されるように監視カメラの向きや焦点を自動調整することにより、オブジェクトの動きに追随させるための手動操作が不要な顔認識システムがある(例えば、特許文献2参照)。
特開2001−268657号公報(第4−7頁、第1図) 特開2000−163600号公報(第7−12頁、第1図)
しかしながら、上記従来の遠隔監視装置は、検索時に人物の服の色などの特徴情報を監視者が入力する必要がある。特にリアルタイムで映像を監視する場合(即ち、ライブ映像の監視の際)には検索に時間がかかり、緊急に顔などの特徴を把握して人物を特定する必要がある異常発生時には間に合わない場合があった。また、一般に、視覚的、感覚的に認識されるオブジェクトの特徴を言葉や数値で特定して検索すること自体が困難であり、検索したいオブジェクトが後ろ向きで小さく撮影されているような場合は検索条件である特徴情報の把握が更に困難で、適切な検索精度が期待できないという問題があった。
また、上記従来の顔認識システムは、カメラの向きなどを人物等に追随させて動かしても、後ろ向きになったりすると顔認識が行えなくなるという問題や、カメラの駆動系が必要であるためコストがかかるという問題があった。
ところで、通常の監視において監視者は、画面上の複数のオブジェクトの動きを注視していて、一般と異なる動きをするオブジェクトを不審人物として注意して追跡する。しかし、異様な動きをしているオブジェクトをモニタ上で見出しても、当該オブジェクトの特徴を把握できるような詳細画像(例えば、顔の正面画像など)がその時点の映像に含まれていることは非常に稀であり、また上記従来技術では所望の詳細画像を即座に取得することが困難であった。したがって、監視映像からオブジェクトを確認することが困難であった。
本発明は、上記事情に鑑みてなされたものであって、オブジェクトの確認が容易となる映像処理装置を提供することを目的とする。
本発明の映像処理装置は、カメラが撮影した監視映像を表示装置に表示させる映像処理装置であって、前記監視映像に含まれるオブジェクトの詳細画像を特定する特定手段と、特定した詳細画像と前記監視映像とを対応付ける処理を行う映像処理手段と、を備える。上記構成によれば、監視映像にオブジェクトの詳細画像を対応付けることで、カメラが撮影した監視映像のみではオブジェクトを把握し難い場合であっても、監視映像に対応付けた詳細画像を確認することが可能となり、オブジェクトの確認が容易となる。
また、本発明の映像処理装置は、前記特定手段が、オブジェクトの特徴情報に基づいて詳細画像を特定するものである。
また、本発明の映像処理装置は、前記特定手段が、ライブ映像又は蓄積映像から詳細画像を特定するものである。上記構成によれば、蓄積映像から詳細画像を特定することにより、ライブ映像よりも豊富な監視映像に含まれる詳細画像の候補から詳細画像を特定することができる為、より適切な詳細画像を特定することができる。
また、本発明の映像処理装置は、前記特定手段が、互いに異なる複数の詳細画像を特定するものである。また、本発明の映像処理装置は、前記特定手段が、撮影方向が異なる複数の詳細画像を特定するものである。また、本発明の映像処理装置は、前記特定手段が、撮影環境が異なる複数の詳細画像を特定するものである。また、本発明の映像処理装置は、前記特定手段が、オブジェクトの特徴情報が異なる複数の詳細画像を特定するものである。上記構成によれば、互いに異なる複数の詳細画像を参照することによって、オブジェクトの確認がより容易になる。
また、本発明の映像処理装置は、前記特定手段が、前記表示装置上で指定した位置に存在するオブジェクトの詳細画像を特定するものである。上記構成によれば、特定手段が、表示装置上で指定した位置に存在するオブジェクトの詳細画像を特定することにより、特定しようとするオブジェクトの詳細画像を表示装置上で指定できる。
また、本発明の映像処理装置は、前記特定手段が、前記表示装置上で指定した位置の近傍に存在するオブジェクトの詳細画像を特定するものである。また、本発明の映像処理装置は、前記特定手段が、オブジェクトの追跡情報から特定したオブジェクトの追跡中断位置と前記表示装置上で指定した位置との距離が短いオブジェクトの詳細画像を特定する。また、本発明の映像処理装置は、前記特定手段が、オブジェクトの追跡情報から特定したオブジェクトの追跡中断時刻が最新のオブジェクトの詳細画像を特定するものである。また、本発明の映像処理装置は、前記特定手段が、予め定めた所定位置を通過した複数のオブジェクトから追跡中のオブジェクトを除いたオブジェクトの詳細画像を特定するものである。上記構成によれば、特定手段が、表示装置上で指定した位置の近傍に存在するオブジェクトの詳細画像を特定することにより、指定した位置にオブジェクトが存在しない場合でも、指定した位置の近傍に存在するオブジェクトの詳細画像を特定できる。
また、本発明の映像処理装置は、複数のカメラが撮影した監視映像に含まれるオブジェクトの特徴情報を互いに対応付けて蓄積する蓄積手段を備える。上記構成によれば、複数の監視映像に含まれるオブジェクトの特徴情報を互いに対応付けることで、一のカメラで撮影した監視映像からオブジェクトの詳細画像を特定できない場合であっても、他のカメラで撮影した監視映像からオブジェクトの詳細画像を特定できる。
本発明によれば、監視映像にオブジェクトの詳細画像を対応付けることで、カメラが撮影した監視映像のみではオブジェクトを把握し難い場合であっても、監視映像に対応付けた詳細画像を確認することが可能となり、オブジェクトの確認が容易となる。
以下、添付図面を参照しながら本発明の実施形態に係る映像処理装置について詳細に説明する。本発明は、カメラが撮影した監視映像を表示装置に表示させる映像処理装置に関するものであるが、以下、本発明の映像処理装置の機能を画像蓄積サーバに持たせた例を示す。尚、実施の形態を説明するための全図において、同一機能を有するものは同一符号を付与し、説明は繰り返さないこととする。
[実施の形態1]
図1は、本発明の実施の形態1における映像処理装置の内部構成を示す図である。映像処理システム100は、映像処理装置11と監視端末12とを備える。
映像処理装置11は、カメラ200が撮影した映像データ(監視映像)に含まれるオブジェクトの詳細画像を特定する機能と、特定した詳細画像と映像データとを対応付ける処理を行う機能とを有し、受信手段101、抽出分類手段102、特定手段103、映像処理手段104、蓄積手段105で構成される。映像処理装置11は、カメラ200で撮影された映像データを受信して、当該映像データや、映像から抽出されるオブジェクト(人物など)に関して算出した特徴情報、オブジェクトの特徴を最も把握しやすい画像である詳細画像などを格納する。
監視端末12は、映像処理装置11から出力される映像データを表示する表示手段107と、表示手段107に表示された画面上で位置を指定するための位置指定手段106とで構成される。
また、映像処理システム100に接続されるカメラ200は、公知の動画撮影ユニットで、被写体映像の圧縮データを生成して後述する受信手段101へ送出する。
次に、映像処理システム100内の各部について更に詳細に説明する。映像処理装置11の受信手段101は、カメラ200で撮影された映像を受信し、圧縮画像の伸張処理を施して映像をフレーム単位で抽出分類手段102へ出力する。抽出分類手段102は、受信手段101で受信した映像データから人物・顔・動き・色等のオブジェクトの特徴情報を抽出し、オブジェクト毎に軌跡情報、特徴情報、顔画像などの詳細画像等に分類する。特定手段103は、後述する位置指定手段106で指定された画面上の位置を把握し、当該位置に存在するオブジェクトの詳細画像(例えば人物の正面の顔画像など)を特定する。映像処理手段104は、特定手段103で特定された詳細画像とカメラのライブ映像又は蓄積映像(監視映像)とを対応付ける処理を行い、詳細画像と監視映像とを同時に表示するための画像合成処理を行う。処理された画像データは表示手段107へ出力される。蓄積手段105は、ディスク・メモリ等の記憶メディアで形成され、受信手段101で受信したカメラ映像データや、抽出分類手段102で分類されたオブジェクト毎の軌跡情報(追跡情報)、特徴情報、詳細画像などを蓄積する。
監視端末12の表示手段107は、テレビモニタや液晶ディスプレイなどで形成され、カメラ200で撮影したライブ映像やその蓄積映像、またそれらの映像と詳細画像との合成画像などを表示する。位置指定手段106は、監視者が、表示手段107の画面上に表示された映像の任意領域を指定するためのものであり、マウスやキーボード上のキーなどで形成される。尚、ここでは、カメラ200からの出力がリアルタイムで表示される映像をライブ映像、一旦映像処理装置11に保存した後の再生により表示される映像を蓄積映像と定義する。
尚、抽出分類手段102で処理する情報には、画像から切出したオブジェクトの画像データや、形状、色、大きさ、動きなどによりオブジェクトを特定する特徴情報(例えば、顔画像の場合における目、鼻、口の形状や位置等を特定する情報)が含まれ、オブジェクト毎にその特徴情報を抽出する方法は公知の手法(例えば、「画像の処理と認識」(安居院猛、長尾智晴共著、昭晃堂出版)参照)を用いてかまわない。そのため特徴情報抽出手順についての詳細な説明は省略する。
これらの特徴情報抽出方法により、受信手段101で受信した映像データから監視対象となる人物等(オブジェクト)を識別し、オブジェクト毎に軌跡情報や特徴情報を管理することが可能となる。オブジェクトの特徴情報からは、例えば、当該オブジェクトの顔が正面を向いているか、横向きまたは後向きであるかなどの状態を判定することができる。抽出分類手段102は、カメラの撮像範囲にオブジェクトが映っている間、顔の特徴情報を取得し続けるため、後述するように詳細画像の取得条件を予め設定しておけば、互いに異なる複数の画像を取得することができる。例えば、正面の顔画像だけでなく、横顔や後姿などの撮影方向が異なる顔画像や、輝度等の撮影環境が異なる顔画像、表情の異なる顔画像等オブジェクトの特徴情報が異なる顔画像などを詳細画像として取得することも可能である。
次に、上記構成の映像処理装置の動作について説明する。
図2は、本発明の実施の形態1における映像処理装置の詳細画像表示動作の概略を模式的に示す図である。図2(a)に示すように、カメラ200からの映像データは、映像処理装置11の蓄積手段105に格納され、同時に監視端末12の表示手段107に表示される。その際、抽出分類手段102は、上述のように撮像範囲内のオブジェクトを抽出して、当該オブジェクトに関する特徴情報や詳細画像を逐次取得する。図2(b)は、抽出分類手段102で取得して蓄積手段105に蓄積される軌跡情報と特徴情報を模式的に示す図である。例えば、映像からオブジェクトとして人物Aが抽出された場合、抽出分類手段102は、人物Aの軌跡情報を時系列で取得する(図中の矢印で示す情報に相当)。また、予め設定した条件に合致する画像が検出された時点で当該画像を詳細画像として取得する(図中の正面、横顔、後姿の画像情報に相当)。
ここで、予め設定した条件とは、良好な詳細画像を取得するための条件であり、具体的には、前述の特徴情報に関するパラメータ(またはその組み合わせ)の設定値である。例えば、顔が正面を向いているという特徴の度合いを示すパラメータが所定の値以上である時、その画像はオブジェクトの顔の特徴を最も把握しやすい良好な画像であると判断できるので、設定値を超えた画像をオブジェクトの詳細画像として取得することができる。同様の設定を横顔や後姿についても行っておけば、横顔や後姿の詳細画像を取得させることもできる(図の例では人物Aに関して顔の正面、横顔、後姿の3種類の詳細画像が取得されているが、その他にも全身画像などを任意に設定してよい)。尚、詳細画像は、撮影時間の経過と共に更新してもよいし、条件を満たす詳細画像をすべて蓄積手段105に蓄積するようにしてもよい。例えば、任意の時点で取得された顔の正面の詳細画像に対して、その後再び条件を満たす画像(または先に取得した画像を超過する良好な画像)が検出された場合にはその画像で先の詳細画像を置換するようにすれば、メモリ領域の消費を節約できる。
以上のように、カメラ200で撮像した映像データからオブジェクトが抽出されると、当該オブジェクトに関連する軌跡情報や特徴情報が随時、蓄積手段105に蓄積される。監視者が、位置指定手段106を用いて画面上の任意位置を指定すると、特定手段103は、指定された位置に存在するオブジェクトを把握し、当該オブジェクトに関連する詳細画像を蓄積手段105から取得して映像処理手段104に送出する。映像処理手段104は、ライブ映像または蓄積映像と詳細画像とを合成して表示手段107に表示する。従って、図2(a)に示すように画面上の表示が小さくて顔や表情が判らないオブジェクトについて詳細を確認したい場合でも、画面上でマウスをクリックして位置を指定すれば、図2(c)に示すように当該オブジェクトの特徴を把握できる程度の鮮明な顔画像をポップアップ表示させることができる。
図の例では、人物Aの顔正面の詳細画像が表示されているが、横顔や後姿の詳細画像を表示するように設定してもよい。また、マウスクリックではなくマウスポインタの一定時間のポイントだけで位置が指定されるように設定してもよい。また、任意の一点を指定するのではなく、矩形などの領域で指定する方法であってもかまわない。更に、詳細画像はポップアップ表示でなく、図2(d)に示すような分割表示でもよい。また、表示手段107を、監視者または撮像領域を警備する警備員が保有するPDAや携帯電話端末などの携帯端末とすれば、例えば不審人物であるか否かの確認に必要な顔の詳細画像を携帯端末に送信して現場の状況確認を行うことも可能である。
ところで、ライブ映像を監視している状況では、マウスクリックして表示される詳細画像はその時点までの映像から取得された詳細画像である。しかし、蓄積映像、即ち保存した映像を再生して監視する状況では、既に映像の最後までについて詳細画像の取得や更新が行われているので、映像が表示されている時点を基準とすると未来の詳細画像が表示される場合もある。従って、蓄積画像から詳細画像を特定する場合は、より適切な詳細画像を表示させることができる。
尚、上記において同じカメラの撮像範囲に複数のオブジェクトが認識される場合は、オブジェクト毎に軌跡情報や特徴情報が蓄積される。
図3は、本発明の実施の形態1における映像処理装置のオブジェクト管理処理の動作手順を示すフローチャートである。オブジェクト管理処理では、映像からオブジェクトを抽出し、オブジェクト関連情報や映像を蓄積手段105に保存して管理する。
はじめに、受信手段101は、ネットワーク回線或いはアナログ回線を経由してカメラ200から映像を受信し、フレーム単位にして映像を出力する(ステップS101)。ネットワーク経由の場合、JPEG、MPEG−4等の圧縮フォーマットを用い、必要に応じて圧縮画像の伸張処理も行う。次に、抽出分類手段102は、フレーム単位のカメラ映像から動く人物等の移動体(オブジェクト)の抽出処理を行う(ステップS102)。
次に、抽出分類手段102は移動体の有無を判定し(ステップS103)、移動体がある場合、移動体を特定する形状、色、大きさ、及び、顔の目、鼻、口の形状や位置などの特徴情報を取得する(ステップS104)。次に、抽出分類手段102は、移動体毎に移動の軌跡情報や顔情報を生成する(ステップS105)。更に、抽出した移動体が過去の映像中に存在するか否かを特徴情報に基づいて行う。現在から数フレーム前までの移動体の特徴情報を比較し、特徴情報が一致すれば、抽出した移動体の特徴情報を用いて、過去の移動体の軌跡情報や顔情報を更新する。一方、特徴情報が一致しない場合、抽出分類手段102は、新しくカメラの撮像範囲内に進入した移動体であると判断して、その軌跡情報や顔情報をデータベースである蓄積手段105に格納する。尚、特徴情報の比較を数フレーム前から行うのは、移動体が回転するなどして特徴情報が変化し、それにより比較結果が不一致となって本来は同じ移動体の軌跡が途絶えてしまうのを避けるためである。つまり、任意の時間範囲で同一の移動体であると判定させるためである。また、数フレーム前から特徴情報を比較する方法で説明したが、過去の移動体の軌跡情報から現在位置を推定し、その位置に一致する移動体が存在するか判定する方法を採用してもよい。
一方、ステップS103において移動体がない場合、抽出分類手段102は、既存の移動体の軌跡情報を更新する(ステップS106)。対象となる移動体は、現在まで追跡中の移動体であり、移動体の軌跡情報を参照して、移動体がカメラの撮像範囲外に出たと判断される場合は移動体の軌跡情報を追跡完了とする。また、カメラの撮像範囲内で移動体を見失ったと判断した場合はオブジェクトの軌跡情報を追跡中断とする。オブジェクトが「撮像範囲外に出た」のか、または「撮像範囲内で見失った」のかは、オブジェクトの追跡位置で判定する。即ち、カメラの撮像範囲の端で追跡が出来なくなった場合は「撮像範囲外に出た(追跡完了)」、それ以外の箇所で追跡が出来なくなった場合は「撮像範囲内で見失った(追跡中断)」と判定する。次に、抽出分類手段102は、受信したカメラ映像を蓄積手段105に記録し、以上の手順を繰り返す。
図4は、本発明の実施の形態1における映像処理装置の映像処理装置11と監視端末12との間で行われる詳細画像表示処理の流れを示すタイミングチャートである。はじめに、監視端末12を操作する監視者が、閲覧するカメラを選択する(ステップS201)。選択時には、ライブ映像または蓄積映像を指定し、蓄積映像の場合は再生箇所を特定するための時刻情報なども指定する。次に、映像処理装置11の映像処理手段104は、指定された映像を監視端末12に対して送信する(ステップS202)。
次に、映像表示中に監視者が前述の要領で画面上の任意位置を指定すると(ステップS203)、位置特定手段106は、現在表示中のカメラ映像を特定する識別子(以下、表示フレーム識別子と称する)を含む指定領域情報を映像処理装置11へ送信する。
次に、特定手段103は、監視端末12より送信された指定領域情報から指定領域に該当するオブジェクトを検索する(ステップS204)。検索方法としては、表示フレーム識別子に相当する映像フレームを選択して、その中の指定領域に軌跡情報を持つオブジェクトを検出すればよい。次に、特定手段103は、オブジェクトの特徴を最も良好に把握することができる詳細画像(例えば、図2の例ではオブジェクトの顔を正面から撮影した画像で、ベストショット画像と称する)を蓄積手段105から取得して、当該画像を監視端末12へ送信する(ステップS205)。最後に、監視端末12の表示手段107は、映像処理装置11から取得したオブジェクトの詳細画像を表示する(ステップS206)。
以上のように、本発明の実施の形態1における映像処理装置は、映像データに含まれる複数のオブジェクトについてその移動軌跡と詳細画像を映像処理装置11で管理し、映像データにオブジェクトの詳細画像を対応付けて監視端末12の画面上に表示する。この構成により、監視者が確認を行いたい時点でそのオブジェクトの画像が小さく表示されていたり、後姿であったりしても、映像データに、オブジェクトの特徴を把握しやすい詳細画像を対応付けて表示することが可能となり、オブジェクトの確認が容易となる。
尚、特定手段103が選択する詳細画像は、顔正面を大きく捉えた照明条件のよい顔画像だけでなく、横顔や後姿など異なる角度からの撮影画像や、異なる照明条件で撮影された輝度の異なる画像、表情の異なる複数の顔画像などであってもかまわない。このように、同じオブジェクトに関する、互いに異なる複数の詳細画像を提供することにより、例えば事件の目撃者に画像を目視させて不審人物等の特定を行わせる際などに、目視する者の記憶をより想起しやすくすることができる。
[実施の形態2]
次に、本発明の実施の形態2における映像処理装置について説明する。実施の形態2の映像処理装置は、実施の形態1のそれと比較して、受信手段101が複数のカメラと接続され、蓄積手段105が、複数のカメラが撮影した映像データ(監視映像)に含まれるオブジェクトの特徴情報を互いに対応付けて蓄積する点が異なる。
実施の形態2の映像処理装置の内部構成は、実施の形態1の映像処理システム100の内部構成(図1参照)と同じであるので説明を省略し、実施の形態1の映像処理システム100と機能が異なるについて説明する。映像処理装置11の抽出分類手段102は、任意のカメラからの映像データに、初めて抽出するオブジェクトがある場合、当該オブジェクトを撮像しているカメラが管理するオブジェクトの情報だけでなく、別のカメラが管理するオブジェクトに関わる情報も検索する。また、特定手段103は、位置指定手段106から位置指定を受けると、表示画面の映像データを出力しているカメラが管理するオブジェクトの情報及び当該オブジェクトが関連付けられた別のカメラが管理するオブジェクトの情報の中から、詳細画像を選択する。
次に、実施の形態2の映像処理装置の動作について説明する。
図5は、本発明の実施の形態2における映像処理装置の詳細画像表示動作の概略を模式的に示す図である。図5(a)に示すように映像処理装置の映像処理装置11は、2台のカメラ201と202に接続している。映像処理装置11は2台のカメラからの映像を受信する。抽出分類手段102は、それぞれの撮像エリア内の複数のオブジェクトを抽出して、それらのオブジェクトについて移動軌跡(追跡情報)や特徴情報、詳細画像を蓄積手段105に蓄積する。
図5(b)及び図5(c)は、カメラ201及び202からの映像に関して蓄積手段105に蓄積されるオブジェクト関連情報を概念的に示している。蓄積手段105には、抽出したオブジェクトに関連する情報テーブルがカメラ毎に生成されている。オブジェクトには、抽出した順に固有IDが付与され(図中の「人物」カラムにおけるA、B、Cの記号)、当該オブジェクトに関する特徴情報が対応する(図中の「人物特徴量」カラムにおける数値。図の例ではオブジェクトの様々な特徴情報を模擬的に一つのパラメータで代表させている。従って、その数値とオブジェクトは一意に一致する。)。その他、撮像範囲内でオブジェクトを認識している時間情報、軌跡情報、後述するオブジェクトのリンク情報、顔画像などの詳細画像のリンク情報などでテーブルが構成される。
ここで、カメラ毎に管理されるオブジェクト関連情報の関連付けについて説明する。
図5(a)に示すように、カメラ201で人物Cとして認識されているオブジェクトが、カメラ201の撮像範囲から出てカメラ202の撮像範囲へ移動する場合を想定する。人物Cがカメラ201の撮像範囲から外れるまでの間に、人物Cとするオブジェクトの特徴情報や軌跡情報、詳細画像などが蓄積手段105のカメラ201のデータ領域に蓄積されるので、情報テーブルには図5(b)に示すようなデータが生成される。即ち、人物Cは特徴情報のパラメータ(人物特徴量)が3のオブジェクトである。
その後、同じオブジェクトがカメラ202の撮像範囲内に入ると、抽出分類手段102は、映像から当該オブジェクトを抽出し、新たなオブジェクトとして登録し、特徴情報や軌跡情報、詳細画像などの取得を開始する。図5(c)に示すようにカメラ202の情報テーブルでは、このオブジェクトは人物Aとして登録され、特徴情報のパラメータが3のオブジェクトである。
特徴情報の取得が完了した時点で、抽出分類手段102は、映像処理装置11に接続される別のカメラであるカメラ201の情報テーブルにアクセスして、人物特徴量が3のオブジェクトを検索する。この場合、パラメータが3の人物Cというオブジェクトが検出されるので、抽出分類手段102は、双方のテーブルのオブジェクトのリンク情報欄(図中の「関連先」カラム)にリンクを確立する。これにより、カメラ201の人物Cというオブジェクトとカメラ202の人物Aというオブジェクトの関連付けが行われ、オブジェクトに関連する情報が相互に参照可能となる。従って、撮像範囲内に新たなオブジェクトの進入が見出された場合でも、もし当該オブジェクトが別のカメラで過去に認識されていれば、そのオブジェクトの詳細な顔画像などを表示することができる。
例えば、カメラ202からの映像を監視中に、新たなオブジェクト(カメラ202における人物A)の進入を発見した場合、監視者が位置指定手段106であるマウスで当該オブジェクトの位置を画面上でクリックすると、特定手段103は、指定されたオブジェクトを把握して、蓄積手段105のカメラ202の情報テーブル(図5(c))を参照する。テーブル内には対応する顔の詳細画像のデータがないため、「関連先」カラムのデータからカメラ201の情報テーブルにアクセスし、その中の人物Cのデータを参照する。このテーブルには顔画像のデータがあるので、該当する顔画像データを蓄積手段105から取得して映像処理手段104に送出する。映像処理手段104は、カメラ202が撮影した映像データに、送出された顔画像を対応付ける処理を行って、画像データを表示手段107に出力する。以上の手順により、図2(c)や(d)に示したような詳細画像表示が実行される。
図6は、本発明の実施の形態2における映像処理装置のオブジェクト管理処理の動作手順を示すフローチャートである。移動するオブジェクト(移動体)の抽出から特徴情報、詳細情報、軌跡情報の取得、映像の記録までの手順は、実施の形態1の映像処理装置における図3のフローチャートのステップS101からS107までと同様であるため説明を省略する。
次に、抽出分類手段102は、新たに追跡中となった移動体(即ち、特徴情報の取得が必要な移動体)の有無を判断し(ステップS301)、該当する移動体が存在する場合はその特徴情報を抽出する(ステップS302)。抽出する特徴情報は、情報テーブルに示す人物特徴量(形状や色、大きさ等)や顔情報(目、鼻、口の形状)であり、カメラ撮像範囲に移動体が撮像されている間に取得できる情報である。
次に、抽出分類手段102は、他のカメラの情報テーブルにアクセスして、ステップS302で抽出した特徴情報とのマッチングを調査する(ステップS303)。特徴情報が一致または類似するオブジェクトが検索される場合、双方の移動体をカメラ間で関連付けする(ステップS304)。一方、ステップS301で移動体が存在しない場合は処理を終了し、図3のフローチャートのS301に戻る。
尚、カメラが多数ある場合、検索対象とする情報テーブルの選択は、自カメラの周辺にあるカメラ群のそれとしたり、通路や遮蔽物等を記した地図情報や各地点の行動予測の統計情報等を用いて決定したりしてもよい。また、他のカメラは、同じ映像処理装置11に接続されるカメラだけでなく、ネットワークを介して接続される別の画像蓄積サーバが管理するカメラであってもかまわない。
次に、本発明の実施の形態2における映像処理装置の映像処理装置11と監視端末12との間で行われる詳細画像表示処理について説明する。処理の流れは、実施の形態1の映像処理装置における図4のタイミングチャートと同様であるが、実施の形態2の映像処理装置では、図4のステップS204で指定領域に該当するオブジェクトを検索した直後に、関連付けされたオブジェクトに関わる詳細画像の検索処理が追加される。
図7は、本発明の実施の形態2における映像処理装置の詳細画像表示処理について、関連付けされたオブジェクトに関わる詳細画像の検索手順を部分的に示すフローチャートである。まず、特定手段103は、ステップS204で抽出した指定領域のオブジェクトに対して、他のカメラに関連するオブジェクトとの関連付けがあるか否かを判断する(ステップS301)。関連付けがある場合、該当するオブジェクトの情報テーブルをすべて参照して、蓄積手段105から詳細画像(ベストショット)を取得する(ステップS402)。尚、取得する詳細画像は最終的に使用しない場合もあるため、以下、詳細画像候補と称する。次に、特定手段103は、他から取得した詳細画像候補と自カメラの映像データから生成した詳細画像とから、監視端末12へ出力する詳細画像を決定する(ステップS403)。詳細画像が決定すると、図4のタイミングチャートのステップS205以降で示すように、映像処理手段104で合成処理された画像が監視端末12に送出され、監視端末12に詳細画像が表示される。一方、ステップS401で他のカメラに関連するオブジェクトとの関連付けがない場合、ステップS403で自カメラの映像から生成した詳細画像を監視端末12へ出力する詳細画像として決定する。
以上のように、カメラ毎に管理されているオブジェクト間で関連付けを行って、同一のオブジェクトに関するオブジェクト関連情報を共有することにより、例えば、撮像範囲内に進入した直後でオブジェクトの画像が小さく、そのカメラからの映像ではオブジェクトの確認が困難な場合でも、別のカメラで撮影した、顔正面を大きく捉えた顔画像を詳細画像として表示することができる。尚、オブジェクトの関連付けを行う際、オブジェクトの軌跡情報及び特徴情報を用いてマッチング処理を行うことで、関連付けの精度を向上することが可能である。
[実施の形態3]
次に、本発明の実施の形態3における映像処理装置について説明する。実施の形態3の映像処理装置は、実施の形態1の映像処理装置と比較して、監視者が画面上で指定した位置に該当するオブジェクトを検出できない場合に、過去に追跡が中断したオブジェクトの中から当該位置に存在するオブジェクトを推定する点が異なる。
実施の形態3の映像処理装置の内部構成は、実施の形態1の映像処理システム100の内部構成(図1参照)と同じであるので説明を省略し、実施の形態1の映像処理システム100と機能が異なるについて説明する。特定手段103は、位置指定手段106から指定された位置に存在するオブジェクトが把握できない場合は、過去に追跡が中断したオブジェクトの中から、該当するオブジェクトを推定し、指定された位置の近傍に存在するオブジェクトの詳細画像を特定する。
次に、実施の形態3の映像処理装置の動作について説明する。
図8は、本発明の実施の形態3における映像処理装置のオブジェクト推定動作の概略を模式的に示す図である。任意のカメラからの映像データを表示している画面上で、監視者がマウスクリックした位置に存在するオブジェクトを検出できない場合、特定手段103は、蓄積手段105に保存されている当該カメラに関する情報テーブルを参照して、軌跡情報が途絶えた(追跡中断した)オブジェクトを検索する。図8(a)の例では、4つのオブジェクトのうち、人物Bと人物Dというオブジェクトの追跡が中断していることが判る。
ところで、オブジェクトの追跡が中断する例として、オブジェクトとカメラとの距離が長くなって、人物と判定できない程度にまでオブジェクトの画像が小さくなってしまう場合や、複数の人物が交差した際にある人物の映像と別の人物映像が重なってしまう場合などが挙げられる。このような追跡中断の発生頻度は、画像認識方法やオブジェクトの追跡方法に依存することがあるが、一般に、追跡中断したオブジェクトは、経過時間が短い程、追跡が中断した位置付近に存在している可能性が高い。また、不審者である場合、追跡中断位置付近で下見をしていたり、状況を観察していたりする可能性が高いため、監視者が指定した位置でオブジェクトを推定することは有益である。
図8(b)及び図8(c)は、特定手段103によるオブジェクト推定の概要を説明している。監視者が、画面上で図8(a)の破線で示す位置をマウスクリックすることにより指定した場合、特定手段103は、近傍にある過去に追跡が中断したオブジェクトから、追跡中断位置と画面上で指定した位置との距離が短いオブジェクトを検索する。その場合、特定手段103は、距離が短い順番(図では、人物B、Dの順)にオブジェクトの候補を決定して、図8(b)に示すような順番でオブジェクトの詳細画像を特定し、取得する。一方、別の検索方法として、特定手段103は、近傍にある過去に追跡が中断したオブジェクトから、追跡中断時刻が現在時刻から最も近い(最新の)オブジェクトを検索する。その場合、特定手段103は、中断時刻が近い順番(図では、人物D、Bの順)にオブジェクトの候補を決定して、図8(b)に示すような順番で詳細画像を取得する。取得した詳細画像は監視端末12の表示手段107に表示させることができる。
次に、本発明の実施の形態3における映像処理装置の映像処理装置11と監視端末12との間で行われる詳細画像表示処理について説明する。処理の流れは、実施の形態1の映像処理装置における図4のタイミングチャートと同様であるが、実施の形態3の映像処理装置では、図4のステップS204で指定領域に該当するオブジェクトを検索する際、オブジェクトが検出されない場合にはオブジェクト推定処理が追加される。
図9は、本発明の実施の形態3における映像処理装置の詳細画像表示処理について、オブジェクト推定手順を部分的に示すフローチャートである。まず、特定手段103は、ステップS204で移動するオブジェクト(移動体)の検索を行った後、指定領域に該当する移動体の有無を判定する(ステップS501)。移動体が存在しない場合、過去に追跡が中断した移動体を抽出する(ステップS502)。前述の通り、追跡中断した移動体は、監視者が指定したカメラの映像で認識されていた移動体、または当該カメラの周辺に設置されたカメラの映像で認識されていた移動体から抽出する。次に、特定手段103は、抽出した移動体を中断位置と監視者の指定位置との距離が短い順または中断時刻が指定時刻に近い順(中断時刻が新しい順)にソートし、予め設定された個数分の移動体候補の詳細画像を取得して映像処理手段104へ出力する(ステップS503)。
詳細画像が出力されると、図4のタイミングチャートのステップS205以降で示すように、映像処理手段104で合成処理された画像が監視端末12に送出され、監視端末12に詳細画像が表示される。一方、ステップS501で指定領域に移動体が存在する場合は、通常の詳細画像表示処理となるので、そのままステップ図4のタイミングチャートのステップS205へ移行する。
次に、図10は、本発明の実施の形態3における映像処理装置に入退室管理装置を接続した場合のオブジェクト推定動作の概略を示す図である。これは、図8を参照して説明した映像処理装置に、フロアの出入口(予め定めた所定位置)を通過したオブジェクトである入退室者の顔情報を取得して入退室管理を行う入退室管理装置を追加して、指定した位置にオブジェクトが存在しない場合におけるオブジェクト推定の精度を更に向上させた応用例である。
また、図11に、実施の形態3における入退室管理装置の構成図を示す。特定手段103は、映像処理システム100に接続される入退室管理装置のデータベース300から、現在入室中のオブジェクトのリスト(図10(a)参照)を取得する。このリストと映像処理装置11が把握している追跡中のオブジェクトとを照合すれば、図10(b)に示すように現在追跡が中断しているオブジェクトだけを抽出することができる。
以上のように、指定した位置でオブジェクトが検出できない場合であっても、過去に追跡が中断されたオブジェクトの中からオブジェクトを推定し、当該オブジェクトの詳細画像を特定することにより、監視対象のオブジェクトの軌跡情報が途絶える異常発生時においても、オブジェクトの確認や特定を高い精度で即座に行うことができる。
尚、指定した位置にオブジェクトが存在しない場合の処理方法として、過去に追跡が中断したオブジェクトの中からオブジェクトを推定し、そのオブジェクトの詳細画像を表示する方法について述べたが、蓄積映像の監視を行う場合、監視時点よりも未来の映像に対して、撮像範囲の途中から追跡が開始したオブジェクトや、追跡が中断したオブジェクトをオブジェクト推定の対象としてもよい。
尚、上記の実施の形態において、移動するオブジェクトの軌跡情報(追跡情報)は矢印の連結情報として、人物特徴量は多次元ベクトルとして管理される。
また、上記説明では、映像蓄積サーバ11が抽出分類手段102及び蓄積手段105を備える場合の例を示したが、抽出分類手段及び蓄積手段を外部に設けてもよい。
本発明は、監視映像にオブジェクトの詳細画像を対応付けることで、カメラが撮影した監視映像のみではオブジェクトを把握し難い場合であっても、監視映像に対応付けた詳細画像を確認することが可能となり、オブジェクトの確認が容易となる効果を有し、カメラが撮影した監視映像を表示装置に表示させる映像処理装置等に有用である。
本発明の実施の形態1における映像処理装置の内部構成を示す図 本発明の実施の形態1における映像処理装置の詳細画像表示動作の概略を模式的に示す図 本発明の実施の形態1における映像処理装置のオブジェクト管理処理の動作手順を示すフローチャート 本発明の実施の形態1における映像処理装置の画像蓄積サーバと監視端末との間で行われる詳細画像表示処理の流れを示すタイミングチャート 本発明の実施の形態2における映像処理装置の詳細画像表示動作の概略を模式的に示す図 本発明の実施の形態2における映像処理装置のオブジェクト管理処理の動作手順を示すフローチャート 本発明の実施の形態2における映像処理装置の詳細画像表示処理について、関連付けされたオブジェクトに関わる詳細画像の検索手順を部分的に示すフローチャート 本発明の実施の形態3における映像処理装置のオブジェクト推定動作の概略を模式的に示す図 本発明の実施の形態3における映像処理装置に入退室管理装置を接続した場合のオブジェクト推定動作の概略を示す図 本発明の実施の形態3における映像処理装置の詳細画像表示処理について、オブジェクト推定手順を部分的に示すフローチャート 本発明の実施の形態3における入退室管理装置の構成を示す図
符号の説明
11 画像蓄積サーバ
12 監視端末
100 映像処理システム
101 受信手段
102 抽出分類手段
103 特定手段
104 映像処理手段
105 蓄積手段
106 位置指定手段
107 表示手段
200、201、202、203 カメラ
300 入退室管理装置のデータベース

Claims (13)

  1. カメラが撮影した監視映像を表示装置に表示させる映像処理装置であって、
    前記監視映像に含まれるオブジェクトの詳細画像を特定する特定手段と、
    特定した詳細画像と前記監視映像とを対応付ける処理を行う映像処理手段と、
    を備える映像処理装置。
  2. 前記特定手段は、オブジェクトの特徴情報に基づいて詳細画像を特定する請求項1記載の映像処理装置。
  3. 前記特定手段は、ライブ映像又は蓄積映像から詳細画像を特定する請求項1又は2記載の映像処理装置。
  4. 前記特定手段は、互いに異なる複数の詳細画像を特定する請求項1ないし3のいずれか一項記載の映像処理装置。
  5. 前記特定手段は、撮影方向が異なる複数の詳細画像を特定する請求項4記載の映像処理装置。
  6. 前記特定手段は、撮影環境が異なる複数の詳細画像を特定する請求項4記載の映像処理装置。
  7. 前記特定手段は、オブジェクトの特徴情報が異なる複数の詳細画像を特定する請求項4記載の映像処理装置。
  8. 前記特定手段は、前記表示装置上で指定した位置に存在するオブジェクトの詳細画像を特定する請求項1ないし7のいずれか一項記載の映像処理装置。
  9. 前記特定手段は、前記表示装置上で指定した位置の近傍に存在するオブジェクトの詳細画像を特定する請求項1ないし7のいずれか一項記載の映像処理装置。
  10. 前記特定手段は、オブジェクトの追跡情報から特定したオブジェクトの追跡中断位置と前記表示装置上で指定した位置との距離が短いオブジェクトの詳細画像を特定する請求項9記載の映像処理装置。
  11. 前記特定手段は、オブジェクトの追跡情報から特定したオブジェクトの追跡中断時刻が最新のオブジェクトの詳細画像を特定する請求項9記載の映像処理装置。
  12. 前記特定手段は、予め定めた所定位置を通過した複数のオブジェクトから追跡中のオブジェクトを除いたオブジェクトの詳細画像を特定する請求項9記載の映像処理装置。
  13. 複数のカメラが撮影した監視映像に含まれるオブジェクトの特徴情報を互いに対応付けて蓄積する蓄積手段を備える請求項2ないし12のいずれか一項記載の映像処理装置。
JP2004275002A 2004-09-22 2004-09-22 映像処理装置 Withdrawn JP2006093955A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004275002A JP2006093955A (ja) 2004-09-22 2004-09-22 映像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004275002A JP2006093955A (ja) 2004-09-22 2004-09-22 映像処理装置

Publications (1)

Publication Number Publication Date
JP2006093955A true JP2006093955A (ja) 2006-04-06

Family

ID=36234529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004275002A Withdrawn JP2006093955A (ja) 2004-09-22 2004-09-22 映像処理装置

Country Status (1)

Country Link
JP (1) JP2006093955A (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008111459A1 (ja) * 2007-03-06 2008-09-18 Kabushiki Kaisha Toshiba 不審行動検知システム及び方法
JP2008228119A (ja) * 2007-03-15 2008-09-25 Fujifilm Corp 監視カメラ・システム,動画検索装置および顔画像データベース更新装置ならびにそれらの動作制御方法
JP2009017416A (ja) * 2007-07-09 2009-01-22 Mitsubishi Electric Corp 監視装置及び監視方法及びプログラム
JP2009055139A (ja) * 2007-08-23 2009-03-12 Hitachi Kokusai Electric Inc 人物追跡システム、人物追跡装置および人物追跡プログラム
JP2009152733A (ja) * 2007-12-19 2009-07-09 Nec Corp 人物特定システム、人物特定装置、人物特定方法および人物特定プログラム
WO2013108448A1 (ja) * 2012-01-20 2013-07-25 楽天株式会社 動画検索装置、動画検索方法、記録媒体、ならびに、プログラム
JP2013179498A (ja) * 2012-02-28 2013-09-09 Glory Ltd 画像処理方法及び画像処理装置
JP2014099739A (ja) * 2012-11-14 2014-05-29 Panasonic Corp 映像監視システム
WO2014155979A1 (ja) * 2013-03-27 2014-10-02 パナソニック株式会社 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
WO2014171258A1 (ja) * 2013-04-16 2014-10-23 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP2015184810A (ja) * 2014-03-20 2015-10-22 株式会社東芝 画像処理装置、画像処理方法および画像処理プログラム
WO2018180039A1 (ja) * 2017-03-31 2018-10-04 日本電気株式会社 映像処理装置、映像解析システム、方法およびプログラム
JP2018173788A (ja) * 2017-03-31 2018-11-08 日本電気株式会社 照合システム、管理装置、照合方法、及びプログラム
WO2020085178A1 (ja) * 2018-10-23 2020-04-30 パナソニックIpマネジメント株式会社 位置情報表示方法、位置情報表示装置およびプログラム
WO2020218463A1 (ja) * 2019-04-24 2020-10-29 株式会社日立製作所 画像処理装置および画像処理方法

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008111459A1 (ja) * 2007-03-06 2008-09-18 Kabushiki Kaisha Toshiba 不審行動検知システム及び方法
JP2008228119A (ja) * 2007-03-15 2008-09-25 Fujifilm Corp 監視カメラ・システム,動画検索装置および顔画像データベース更新装置ならびにそれらの動作制御方法
JP2009017416A (ja) * 2007-07-09 2009-01-22 Mitsubishi Electric Corp 監視装置及び監視方法及びプログラム
JP2009055139A (ja) * 2007-08-23 2009-03-12 Hitachi Kokusai Electric Inc 人物追跡システム、人物追跡装置および人物追跡プログラム
US8144929B2 (en) 2007-08-23 2012-03-27 Hitachi Kokusai Electric Inc. Human pursuit system, human pursuit apparatus and human pursuit program
JP2009152733A (ja) * 2007-12-19 2009-07-09 Nec Corp 人物特定システム、人物特定装置、人物特定方法および人物特定プログラム
WO2013108448A1 (ja) * 2012-01-20 2013-07-25 楽天株式会社 動画検索装置、動画検索方法、記録媒体、ならびに、プログラム
JP2013150218A (ja) * 2012-01-20 2013-08-01 Rakuten Inc 動画検索装置、動画検索方法、記録媒体、ならびに、プログラム
JP2013179498A (ja) * 2012-02-28 2013-09-09 Glory Ltd 画像処理方法及び画像処理装置
JP2014099739A (ja) * 2012-11-14 2014-05-29 Panasonic Corp 映像監視システム
US9779308B2 (en) 2012-11-14 2017-10-03 Panasonic Intellectual Property Management Co., Ltd. Video monitoring system
GB2529943A (en) * 2013-03-27 2016-03-09 Panasonic Ip Man Co Ltd Tracking processing device and tracking processing system provided with same, and tracking processing method
GB2529943B (en) * 2013-03-27 2019-11-06 Panasonic Ip Man Co Ltd Tracking processing device and tracking processing system provided with same, and tracking processing method
JP2014192700A (ja) * 2013-03-27 2014-10-06 Panasonic Corp 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
WO2014155979A1 (ja) * 2013-03-27 2014-10-02 パナソニック株式会社 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
US10445887B2 (en) 2013-03-27 2019-10-15 Panasonic Intellectual Property Management Co., Ltd. Tracking processing device and tracking processing system provided with same, and tracking processing method
WO2014171258A1 (ja) * 2013-04-16 2014-10-23 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
US10574943B2 (en) 2013-04-16 2020-02-25 Nec Corporation Information processing system, information processing method, and program
US10225524B2 (en) 2013-04-16 2019-03-05 Nec Corporation Information processing system, information processing method, and program
JP2015184810A (ja) * 2014-03-20 2015-10-22 株式会社東芝 画像処理装置、画像処理方法および画像処理プログラム
WO2018180039A1 (ja) * 2017-03-31 2018-10-04 日本電気株式会社 映像処理装置、映像解析システム、方法およびプログラム
JPWO2018180039A1 (ja) * 2017-03-31 2019-12-26 日本電気株式会社 映像処理装置、映像解析システム、方法およびプログラム
JP2018173788A (ja) * 2017-03-31 2018-11-08 日本電気株式会社 照合システム、管理装置、照合方法、及びプログラム
US11748892B2 (en) 2017-03-31 2023-09-05 Nec Corporation Video image processing device, video image analysis system, method, and program
WO2020085178A1 (ja) * 2018-10-23 2020-04-30 パナソニックIpマネジメント株式会社 位置情報表示方法、位置情報表示装置およびプログラム
WO2020218463A1 (ja) * 2019-04-24 2020-10-29 株式会社日立製作所 画像処理装置および画像処理方法
JP2020182063A (ja) * 2019-04-24 2020-11-05 株式会社日立製作所 画像処理装置および画像処理方法
JP7233292B2 (ja) 2019-04-24 2023-03-06 株式会社日立製作所 画像処理装置および画像処理方法

Similar Documents

Publication Publication Date Title
JP5730518B2 (ja) 特定人物検知システムおよび特定人物検知方法
JP6399356B2 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
CN110089104B (zh) 事件存储装置、事件搜索装置和事件警报装置
JP2020047110A (ja) 人物検索システムおよび人物検索方法
US8724970B2 (en) Method and apparatus to search video data for an object of interest
JP2006093955A (ja) 映像処理装置
JP2009271577A (ja) 類似画像検索の結果表示装置及び類似画像検索の結果表示方法
JP2008165700A (ja) 画像処理装置、電子機器、画像処理システム、画像処理方法、および、プログラム
US10999556B2 (en) System and method of video capture and search optimization
JP2011087253A (ja) 撮像装置、情報処理装置及び情報処理方法
US20110096994A1 (en) Similar image retrieval system and similar image retrieval method
US20230093631A1 (en) Video search device and network surveillance camera system including same
WO2004006572A1 (ja) 映像生成処理装置、映像生成処理方法および映像記憶装置
JP4959592B2 (ja) ネットワーク映像モニタリングシステム及びモニタ装置
KR20040105612A (ko) 변화검출방법과 장치 및 그 방법 또는 장치를 사용한감시시스템
KR101840300B1 (ko) Cctv 영상의 검색 장치 및 방법
JP6396682B2 (ja) 監視カメラシステム
JP3942606B2 (ja) 変化検出装置
CN112653832A (zh) 一种监控方法、装置和设备
JP5088463B2 (ja) 監視システム
JP6485978B2 (ja) 画像処理装置および画像処理システム
JP4985742B2 (ja) 撮影システム、方法及びプログラム
KR20210108691A (ko) 영상 검색 장치 및 이를 포함하는 네트워크 감시 카메라 시스템
KR100536747B1 (ko) 팬/틸트/줌 카메라를 이용한 영상 보안 시스템 및 방법
JP7235612B2 (ja) 人物検索システムおよび人物検索方法

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071204