JP2021048527A - 録画管理装置、録画管理方法、録画管理システムおよびプログラム - Google Patents

録画管理装置、録画管理方法、録画管理システムおよびプログラム Download PDF

Info

Publication number
JP2021048527A
JP2021048527A JP2019170722A JP2019170722A JP2021048527A JP 2021048527 A JP2021048527 A JP 2021048527A JP 2019170722 A JP2019170722 A JP 2019170722A JP 2019170722 A JP2019170722 A JP 2019170722A JP 2021048527 A JP2021048527 A JP 2021048527A
Authority
JP
Japan
Prior art keywords
image
date
time
captured
recording management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019170722A
Other languages
English (en)
Inventor
拓哉 喜瀬
Takuya Kise
拓哉 喜瀬
貴光 荒井
Takamitsu Arai
貴光 荒井
明寛 秋山
Akihiro Akiyama
明寛 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
iPro Co Ltd
Original Assignee
Panasonic iPro Sensing Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic iPro Sensing Solutions Co Ltd filed Critical Panasonic iPro Sensing Solutions Co Ltd
Priority to JP2019170722A priority Critical patent/JP2021048527A/ja
Publication of JP2021048527A publication Critical patent/JP2021048527A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】カメラの撮像影画像が録画された録画データにフレーム落ちが発生しても、撮像画像が撮像された撮像日時情報を適正に取得できる。【解決手段】録画管理装置は、少なくとも1つのカメラによって撮像され、撮像日時を示す日時画像を含む複数のフレーム画像によって構成された撮像映像を受信する受信部と、日時画像から撮像日時の情報を抽出してフレーム画像が撮像された撮像日時情報を生成し、生成された撮像日時情報とフレーム画像とを対応付ける処理部と、を備える。【選択図】図5

Description

本開示は、録画管理装置、録画管理方法、録画管理システムおよびプログラムに関する。
従来、監視地域の映像を撮像する監視カメラと、監視地域に関する遷移情報を取得するセンサーと、センサーより受信する遷移情報を文字情報に変換し、撮像された映像情報および文字情報を符号化し、複数の表示装置にマルチキャスト配信するエンコーダとを備える監視カメラシステムが開示されている(特許文献1参照)。この監視カメラシステムは、映像に重畳すべき文字情報を格納する文字情報格納部と、IPネットワークを介してマルチキャスト配信された文字情報および映像情報を取得し、映像情報に、文字情報格納部に格納される文字情報とエンコーダから受信して復号した文字情報とのいずれかまたは双方を重畳して、接続された表示装置に出力するOSDデコーダと、OSDデコーダに対し、映像情報に重畳すべき文字情報を、文字情報格納部より取得するよう指示する。
特開2010−74382号公報
しかしながら、特許文献1に示す監視カメラによって撮像された撮像映像情報に文字あるいは画像情報(以下、日時OSD画像と表記)を重畳表示するOSD(On Screen Display)処理には、撮像映像情報に撮像日時を示す情報が含まれなかった。また、撮像映像情報に撮像日時を示す情報が重畳された場合であっても、ユーザ(例えば、店舗の店員、警備会社の社員、警察官など)は、特定の日時あるいは特定の人物・車両などが映る複数のフレーム画像のそれぞれにおいて、重畳された日時OSD画像に表示された撮像日時を目視で確認し、さらにその撮像日時を手動で入力しなければならず、ユーザの作業負荷が大きかった。
また、ユーザに替わって、特定の日時あるいは特定の人物・車両などが映るフレーム画像を検出可能な装置(例えば、サーバ、PC(Personal Computer)、タブレット、スマートフォンなど)によって特定の日時あるいは特定の人物・車両などが映るフレーム画像を自動で見つけ出す場合、装置は、撮像映像の撮像開始日時に所定のフレーム画像が表示されるまでの撮像映像の再生時間を加算し、フレーム画像の撮像日時情報として取得する。しかし、再生時に処理負荷などに起因してフレームが欠落するフレーム落ちが発生した場合、取得されたフレーム画像の撮像日時情報は、日時OSD画像に表示された実際の撮像日時情報と異なる可能性があり、ユーザの誤認識を発生させる要因となっていた。
本開示は、カメラの撮像画像が録画された録画データにフレーム落ちが発生しても、撮像画像が撮像された撮像日時情報を適正に取得する録画管理装置、録画管理方法、録画管理システムおよびプログラムを提供する。
本開示は、少なくとも1つのカメラによって撮像され、撮像日時を示す日時画像を含む複数のフレーム画像によって構成された撮像映像を受信する受信部と、前記日時画像から前記撮像日時の情報を抽出して前記フレーム画像が撮像された撮像日時情報を生成し、生成された前記撮像日時情報と前記フレーム画像とを対応付ける処理部と、を備える、録画管理装置を提供する。
また、本開示は、少なくとも1つのカメラによって撮像され、撮像日時を示す日時画像を含む複数のフレーム画像によって構成された撮像映像を受信し、前記日時画像から前記撮像日時の情報を抽出して前記フレーム画像が撮像された撮像日時情報を生成し、生成された前記撮像日時情報と前記フレーム画像とを対応付ける、録画管理方法を提供する。
また、本開示は、少なくとも1つのカメラと録画管理装置とが通信可能に接続された録画管理システムであって、前記カメラは、撮像日時を示す日時画像を重畳された複数のフレーム画像を生成し、前記複数のフレーム画像によって構成された撮像映像を生成して前記録画管理装置に送信し、前記録画管理装置は、前記撮像映像を受信し、前記日時画像から前記撮像日時の情報を抽出して前記フレーム画像が撮像された撮像日時情報を生成し、生成された前記撮像日時情報と前記フレーム画像とを対応付ける、録画管理システムを提供する。
また、本開示は、少なくとも1つのカメラによって撮像され、撮像日時を示す日時画像を含む複数のフレーム画像によって構成された撮像映像を受信するステップと、前記日時画像から前記撮像日時の情報を抽出して前記フレーム画像が撮像された撮像日時情報を生成し、生成された前記撮像日時情報と前記フレーム画像とを対応付けるステップと、を実現させるための、プログラムを提供する。
本開示によれば、カメラの撮像画像が録画された録画データにフレーム落ちが発生しても、撮像画像が撮像された撮像日時情報を適正に取得できる。
本実施の形態に係る録画管理システムの構成例を示す図 本実施の形態に係るカメラの内部構成例を示す図 本実施の形態に係る録画装置の内部構成例を示す図 本実施の形態に係る録画管理装置の内部構成例を示す図 フレーム画像内の日時OSD画像から撮像日時情報を特定する処理を説明するための図 フレーム画像に対して日時OSD画像の抽出領域を設定する例を説明するための図 日時OSD画像の表記フォーマットを設定する例を説明するための図 フレーム落ちが発生しない場合に取得される撮像日時情報の一例を示す図 フレーム落ちが発生した場合に取得される撮像日時情報の一例を示す図 複数のオブジェクト画像のそれぞれを撮像されたカメラごとに表示する例を示す図 複数のカメラのそれぞれで撮像された複数のオブジェクト画像のそれぞれをまとめて表示する例 本実施の形態に係る録画管理装置の処理手順例を示すフローチャート 本実施の形態に係る録画データ解析の処理手順例を示すフローチャート 本実施の形態に係る録画管理装置の処理手順例を示すフローチャート
以下、図面を適宜参照して、本開示の実施の形態について、詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明および実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の記載の主題を限定することは意図されていない。
(本実施の形態)
本実施の形態に係る録画管理システム1は、複数のカメラのそれぞれによって撮像された撮像画像に重畳された撮像日時情報を取得し、撮像画像と対応付ける例について説明する。図1は、本実施の形態に係る録画管理システム1の構成例を示す図である。録画管理システム1は、少なくとも1つのカメラ100と、少なくとも1つの録画装置200と録画管理装置300と、を含んで構成される。
カメラ100は、例えば監視カメラであり、屋内外を含む様々な場所(例えば、建物の出入り口付近、通路および/または部屋、あるいは屋外の道路など)に設置される。カメラ100は、撮像した複数のフレーム画像のそれぞれによって構成される動画データを、通信ネットワーク2を介して、ストリーミングにて録画装置200へ送信する。
なお、複数のカメラ100のそれぞれは、異なる所有者によって所有された監視カメラであってよいし、同一の所有者であってもよい。これにより、管理者あるいは警察官などのユーザは、様々な場所に設置された異なる所有者が所有するカメラ100のそれぞれを収集し、カメラ100のそれぞれによって撮像された撮像画像から所定の人物を見つけ出す(捜し出す)ことができる。
カメラ100は、撮像したフレーム画像(つまり撮像画像)に対して撮像日時情報を含む画像を重畳表示させるOSD(On Screen Display)機能を有する。カメラ100のOSD機能をオンに設定した場合、録画データは、OSD機能により撮像日時情報を示す画像が重畳される。すなわち、録画データにおけるフレーム画像は、フレーム画像が撮像された撮像日時情報を示す画像が含まれる。なお、画像が示す情報は、撮像日時情報に限定されず、カメラ100のそれぞれを識別可能な情報(例えば、カメラ100が設置された店舗あるいは施設情報,設置場所に関する情報など)を含んでもよい。以下、フレーム画像に含まれる撮像日時情報を示す画像を「日時OSD画像」と称する。
録画装置200は、通信ネットワーク2を介して、少なくとも1つのカメラ100が無線通信あるいは有線通信可能に接続され、カメラ100によって撮像された撮像画像データを受信する。なお、ここでいう無線通信は、例えばBluetooth(登録商標)、NFC(登録商標)などの近距離無線通信、またはWifi(登録商標)などの無線LAN(Local Area Network)を介した通信である。
録画装置200は、カメラ100からストリーミングにて送信される撮像画像データ(撮像動画データ)を受信し、記憶(録画)する。以下、カメラ100から送信され、録画装置200に記憶された撮像動画データを、「録画データ」と称する。録画データのフォーマットは、例えば、MPEG1、MPEG2、MPEG4、H.264、あるいはH.265であるが、これらに限定されない。
通信ネットワーク2は、例えば、有線LAN(Local Area Network)または無線LANによって構成される。なお、カメラ100は、通信ネットワーク2に代えて、例えばLANケーブルあるいはUSB(Univesal Serial Bus)ケーブルなどによって録画装置200との間で有線通信可能に接続されてもよい。
録画管理装置300は、カメラ100を管理する管理室あるいは押収したカメラ100あるいは録画装置200に記憶された撮像画像を確認する警察署などに備えられた、例えばPC(Personal Computer)、タブレット、スマートフォンなどの端末装置である。録画管理装置300は、録画装置200に記憶された録画データを、通信ネットワーク3を介して受信する。録画管理装置300は、各カメラ100によって撮像され、各録画装置200によって記憶された録画データが蓄積される。
録画管理装置300は、フレーム画像に重畳表示された日時OSD画像に基づいて、日時OSD画像が示すフレーム画像が撮像された撮像日時に関する情報(以下「撮像日時情報」と称する)を生成する。録画管理装置300は、撮像日時情報とフレーム画像とを対応付けて記憶する。
通信ネットワーク3は、例えば、インターネットによって構成される。通信ネットワーク3は、録画装置200および録画管理装置300との間で無線通信または有線通信可能に接続される。
図2を参照して、カメラ100の内部構成について説明する。図2は、本実施の形態に係るカメラ100の内部構成例を示す図である。
カメラ100は、撮像部101と、処理部102と、メモリ103と、通信部104と、を含んで構成される。これらのカメラ100を構成する撮像部101と、処理部102と、メモリ103と、通信部104とは、双方向通信可能な内部バス105によって接続される。
撮像部101は、少なくともレンズ(不図示)とイメージセンサ(不図示)とを有して構成される。イメージセンサは、例えばCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)の固体撮像素子であり、撮像面に結像した光学像を電気信号に変換する。撮像部101は、焦点距離を調節可能フォーカスレンズ、ズーム倍率を変更可能なズームレンズ、および撮像素子の感度を調整可能なゲイン調整部を有する。撮像部101は、カメラ100の撮像領域を撮像し、撮像された撮像画像を処理部102に出力する。
処理部102は、例えばCPU(Central Processing unit)またはFPGA(Field Programmable Gate Array)を用いて構成されて、メモリ103と協働して、各種の処理および制御を行う。具体的には、処理部102は、メモリ103に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、撮像部101および通信部104の機能を実現する。
処理部102は、撮像部101によって撮像された複数の撮像画像のそれぞれから構成される動画データ110を生成する。このとき、処理部102は、動画データ110を再生するためのメタ情報111を含む動画データ110を生成する。メタ情報111は、例えば、動画データ110の動画フォーマットおよびフレームレートなどを示す情報である。また、処理部102は、OSD機能がオンの場合、撮像部101によって撮像された撮像画像に対して、撮像日時情報を含む日時OSD画像を重畳する。なお、画像に対する日時OSD画像の重畳領域(位置)は、カメラ100に予め設定されてよい。
メモリ103は、例えば処理部102の各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、処理部102の動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、処理部102により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、処理部102の動作を規定するプログラムが書き込まれている。
通信部104は、通信ネットワーク2を介して、録画装置200との間でデータの送受信を行うための通信インタフェース回路または通信モジュールを用いて構成される。通信部104は、送信部106Aと、受信部106Bと、を含んで構成される。
送信部106Aは、メモリ103内の動画データ110を、通信ネットワーク2を介して、ストリーミングにて録画装置200へ送信する。
受信部106Bは、録画装置200からカメラ100への制御指示情報を受信し、受信された制御支持情報を処理部102に出力する。ここでいう制御指示情報は、例えば、OSD機能のオンあるいはオフにするための情報、OSD機能により重畳表示される日時OSD画像の配置に関する情報、日時OSD画像の表示方法に関する情報あるいは日時の設定などを指示する情報などである。
次に、図3を参照して、録画装置200の構成例について説明する。図3は、本実施の形態に係る録画装置200の内部構成例を示す図である。
録画装置200は、処理部201と、メモリ202と、ストレージ203と、通信部204と、を含んで構成される。これらの録画装置200を構成する処理部201と、メモリ202と、ストレージ203と、通信部204とは、双方向通信可能な内部バス205によって接続される。
処理部201は、例えばCPU(Central Processing unit)またはFPGA(Field Programmable Gate Array)を用いて構成されて、メモリ202と協働して、各種の処理および制御を行う。具体的には、処理部201は、メモリ202に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、ストレージ203および通信部204の機能を実現する。
処理部201は、カメラ100からストリーミングにて受信された動画データ110から、録画データ210を生成する。このとき、処理部201は、録画データ210を再生するためのメタ情報211を含む録画データ210を生成する。メタ情報211は、例えば、録画データ210の動画フォーマット、フレームレートおよび再生時間などを示す情報が含まれる。また、処理部201は、録画データ210の送信元のカメラ100の識別情報を含むメタ情報211を生成し、このメタ情報211を含む録画データ210を生成してもよい。
メモリ202は、例えば処理部201の各処理を実行する際に用いられるワークメモリとしてのRAMと、処理部201の動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、処理部201により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、処理部201の動作を規定するプログラムが書き込まれている。
ストレージ203は、録画装置200が有する機能に関するプログラムおよびデータを格納する。ストレージ203は、例えば、HDD(Hard Disk Drive)またはSSD(Solid State Drive)によって構成されてもよい。ストレージ203は、処理部201によって生成された録画データ210を格納する。
通信部204は、通信ネットワーク2を介したカメラ100との間のデータの送受信、および通信ネットワーク3を介した録画管理装置300との間のデータの送受信を行うための通信インタフェース回路または通信モジュールを用いて構成される。通信部204は、送信部206Aと、受信部206Bと、を含んで構成される。
受信部206Bは、カメラ100から通信ネットワーク2を介して、ストリーミングにて動画データ110を受信する。
送信部206Aは、ストレージ203に格納されている録画データ210を、通信ネットワーク3を介して録画管理装置300に送信する。
次に、図4を参照して、録画管理装置300の内部構成について説明する。図4は、本実施の形態に係る録画管理装置300の内部構成例を示す図である。
録画管理装置300は、処理部301と、メモリ302と、ストレージ303と、通信部304と、を含んで構成される。これら録画管理装置300を構成する処理部301と、メモリ302と、ストレージ303と、通信部304とは、双方向通信可能な内部バス305によって接続される。
処理部301は、例えばCPUまたはFPGAを用いて構成されて、メモリ302と協働して、各種の処理および制御を行う。具体的には、プロセッサ21は、メモリ302に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより各部の機能を実現する。処理部301は、解析部321および検索部322の機能を実現する。なお、解析部321および検索部322の機能に関する説明は、後述する。
メモリ302は、例えば処理部301の各処理を実行する際に用いられるワークメモリとしてのRAMと、処理部301の動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、処理部301により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、処理部301の動作を規定するプログラムが書き込まれている。
蓄積部の一例としてのストレージ303は、録画管理装置300が有する機能に関するプログラムおよびデータを格納する。ストレージ303は、例えば、HDDまたはSSDによって構成され、各録画装置200から受信された録画データ210を格納(記憶)する。
また、ストレージ303は、解析部321によって撮像日時情報402と対象フレーム画像400とが対応付けた後の撮像映像を記憶する。なお、この際記憶される対応付けた後の撮像映像は、対応付け前の撮像映像(つまり、受信部306Bによって録画装置200から受信された際の撮像映像)に上書きされ、記憶されてよい。
なお、ストレージ303は、録画管理装置300と別体に設けられた外部記憶装置であってよい。具体的に、ストレージ303は、録画管理装置300との間で通信可能に接続された外部ストレージ、あるいはUSB(Universal Serial Bus)メモリあるいはSDメモリカードなどの外部記憶装置であってよい。
通信部304は、通信ネットワーク3を介して録画装置200との間のデータの送受信を行うための通信インタフェース回路または通信モジュールを用いて構成される。通信部304は、送信部306Aと、受信部306Bと、を含んで構成される。
送信部306Aは、録画装置200に対して、録画データ210の取得要求を送信する。
受信部306Bは、録画装置200から取得要求に対応する録画データ210を受信し、ストレージ303に格納する。
操作部307は、ユーザ(管理人、警察官など)の入力操作を受け付けるユーザインタフェースであり、例えばマウス、キーボード、タッチパネルおよびスタイラスペンなどのポインティングデバイスである。操作部307は、入力された入力操作に基づく制御信号を生成し、処理部301に出力する。処理部301は、ユーザによって入力された検索条件(例えば、カメラ、撮像日時情報、撮像画像に映るオブジェクト(人物車両など)などに関する検索のための条件)に基づいて、所定の検索処理(例えば、撮像日時情報に基づく録画データあるいは撮像画像の検索、オブジェクト(人物、車両など)に基づく録画データあるいは撮像画像の検索)を実行する。処理部301は、検索条件に該当する複数のフレーム画像のそれぞれと、これらのフレーム画像に対応付けられた撮像日時情報とからなる検索結果を出力部308に出力し、表示させる。
表示デバイスの一例としての出力部308は、後述する解析部321によって撮像日時情報402と対象フレーム画像400とが対応付け処理が行われた撮像映像、あるいはユーザの入力操作によって検索された検索結果を表示するモニタである。なお、モニタがユーザの入力操作を受け付け可能であって、かつ撮像画像あるいは検索結果を表示可能なタッチパネルの場合、出力部308は、操作部307によって機能を実現されてよい。
図5を参照して、解析部321の処理について説明する。図5は、対象フレーム画像400内の日時OSD画像401から撮像日時情報402を特定する処理を説明するための図である。
解析部321は、録画データ210を構成する複数のフレーム画像のそれぞれのうちの1つである対象フレーム画像400に対して、日時OSD画像401が示す撮像日時情報を取得するための画像解析を行う。解析部321は、画像解析の結果特定された対象フレーム画像400内から日時OSD画像401が重畳表示されている領域(位置)から日時OSD画像401を抽出する。
解析部321は、抽出された日時OSD画像401に対して、文字を特定するための画像解析を行い、日時OSD画像401が撮像された撮像日時情報を特定する。する。なお、ここでいう文字は、数字あるいは記号などを含む。解析部321は、特定された文字に基づいて、日時OSD画像401が撮像された日時を示す撮像日時情報402を生成する。例えば、解析部321は、図5に示す日時OSD画像401から、「2019年5月14日9時15分34秒」を示す撮像日時情報402を生成する。
解析部321は、生成した撮像日時情報402を、対象フレーム画像400に対応付ける。解析部321は、撮像日時情報402と対象フレーム画像400とが対応付けられた複数のフレーム画像のそれぞれによって対応付けた後の撮像映像をストレージ303に記憶する。なお、この対応付けた後の撮像映像は、対応付け前の撮像映像(つまり、受信部306Bによって録画装置200から受信された際の撮像映像)に上書きされ、記憶されてよい。
よって、本実施の形態に係る録画管理システム1は、撮像日時情報402を対象フレーム画像400に対応付けることにより、録画管理装置300において、撮像日時情報402を用いた対象フレーム画像400の検索などが可能となる。また、ユーザ(管理人あるいは警察官)は、録画データにフレーム落ちが発生しても、撮像画像が撮像された撮像日時情報を適正に取得できるため、撮像された撮像画像を有用な証拠情報として取得できる。
また、解析部321は、対象フレーム画像400に対して画像解析を行い、予め定められた抽出対象(例えば、人物および車両など)が映るオブジェクト画像404を抽出する。解析部321は、抽出されたオブジェクト画像404に対して、生成された撮像日時情報402を対応付ける。これにより、録画管理装置300において、撮像日時情報402を用いたオブジェクト画像404の検索などが可能となる。また、ユーザ(管理人あるいは警察官)は、撮像画像の撮像日時だけでなく、設定された抽出対象ごとの検索が可能となるとともに、撮像された撮像画像を有用な証拠情報として取得できる。
図6は、フレーム画像に対して日時OSD画像の抽出領域を設定する例を説明するための図である。図6を参照して、対象フレーム画像400から日時OSD画像401を抽出する処理の変形例を説明する。
解析部321は、上述のように画像解析によって対象フレーム画像400のうち、日時OSD画像401が重畳表示されている領域(位置)を特定し、その領域(位置)に対して日時OSD画像401を抽出する処理について説明したが、抽出処理の方法はこれに限定されない。対象フレーム画像400に対して重畳表示されている領域(位置)が予め設定されている場合、解析部321は、領域(位置)に関する設定情報をカメラ100、あるいは録画管理装置300(操作部307)を用いたユーザの入力操作に基づいて指定されてよい。解析部321は、指定された領域(位置)を日時OSD画像401が重畳表示されている領域(位置)として設定し、以降、この設定された領域(位置)のみに対して画像処理を実行し、日時OSD画像401を抽出してもよい。
例えば、図6に示すように、解析部321は、対象フレーム画像400における日時OSD画像401の重畳表示された領域(位置)が、左上501A、右上501B、左下501C、および右下501Dのうちのいずれであるかをユーザに問い合わせる。解析部321は、ユーザの入力操作に基づいて指定された領域(位置)を設定する。解析部321は、設定された領域(位置)から、日時OSD画像401を抽出する。これにより、録画管理装置300は、画像解析によって対象フレーム画像400の全領域から日時OSD画像401の重畳表示された領域(位置)を特定し、抽出する場合に比べて、日時OSD画像401の特定処理および抽出処理に要する時間を短縮し、処理負荷を軽減できる。なお、図6に示す領域(位置)は、一例であり、これに限定されないことは言うまでもない。
図7は、日時OSD画像401の表記フォーマットTB1を設定する例を説明するための図である。表記フォーマットTB1は、同一の撮像日時情報「2019年5月14日」を異なる表記方法(順序)で表記した例と、その表記を抽出した例とを示す。図7を参照して、日時OSD画像401の表記フォーマットTB1を設定する処理について説明する。
日時OSD画像401に表示された撮像日時の表記フォーマットTB1は、カメラ100の設定(例えばカメラ100が設置されている国ごとの表記)によって異なり得る。例えば、図7の表記フォーマットTB1に示すように、「2019年5月14日」は、日時OSD画像401において、「2019/5/14」と表記される場合と、「5/14/2019」と表記される場合と、「14/5/2019」と表記される場合とがある。なお、撮像日時の表記例はこれに限定されないことは言うまでもない。
解析部321は、ユーザの入力操作に基づいて日時OSD画像401に表示される撮像日時の表記フォーマットが「年/月/日 時:分:秒」,「月/日/年 時:分:秒」,「日/月/年 時:分:秒」のうちいずれの形式であるかを設定する。解析部321は、設定された表記フォーマットの形式に基づいて、日時OSD画像401に表示された撮像日時の抽出処理を実行する。
なお、本実施の形態は、図7に示す表記フォーマットTB1に限定されない。例えば、録画管理装置300には、図7に示す表記フォーマットTB1に加えて、「2019−5−14」のようにハイフンで区切って年月日を表記する表記フォーマット(つまり「年−月−日」)、および「20190514」のように区切り記号なしで年月日を表記する表記フォーマット(つまり「年月日」)などであってよい。また、録画管理装置300は、時分秒の表記フォーマットも同様にハイフン、区切り記号なしなどの他の表記フォーマットを設定可能であってよい。さらに、録画管理装置300は、曜日に関する表記フォーマットを設定可能であってよい。
また、録画管理装置300は、表記フォーマットが設定されない場合には、日時OSD画像401を画像解析処理し、撮像日時情報を取得および生成してよい。このような場合、ユーザは、複数のカメラ100のそれぞれが異なる表記フォーマットの日時OSD画像401を重畳表示している場合に、カメラ100ごとの表記フォーマットの設定が不要となる。
さらに、録画管理装置300は、表記フォーマットが設定されない場合には、日時OSD画像401を画像解析処理し、撮像日時情報の表記フォーマットを取得してよい。このような場合、録画管理装置300は、取得された表記フォーマットを出力部308に出力(提示)する。録画管理装置300は、出力された表記フォーマットに対して、ユーザによる確認の入力操作がある場合にのみ表記フォーマットを設定してもよい。これにより、録画管理装置300は、ユーザによる表記フォーマットの設定時の入力操作が簡略化できる。
図8Aおよび図8Bを参照して、日時OSD画像が重畳表示されない場合に、ユーザあるいは録画管理装置300が録画データの撮像開始時刻と録画データの再生時間(経過時間)とに基づいて撮像日時情報を算出する従来例について説明する。図8Aは、フレーム落ちが発生しない場合に取得される撮像日時情報TB2の一例を示す図である。図8Bは、フレーム落ちが発生した場合に取得される撮像日時情報TB3の一例を示す図である。
図8Aの撮像日時情報TB2に示すように、解析部321あるいはユーザは、録画データ210のメタ情報に含まれる撮像開始時刻と、録画データ210における開始フレーム画像(つまり、経過時間0(ゼロ)秒)の撮像日時情報「2019年5月14日 09:00:00」から対象フレーム画像400(経過時間934秒)までの経過時間とに基づいて、対象フレーム画像400が撮像された撮像日時情報「2019年5月14日 09:15:34」を算出する。開始フレーム画像から対象フレーム画像400までの経過時間は、フレームレートに基づいて算出されてよい。解析部321あるいはユーザは、算出された撮像日時情報と対象フレーム画像400とを対応付ける。
次に、開始フレーム画像から対象フレーム画像400までの間にフレーム落ちが発生していた場合に算出される撮像日時情報について説明する。
図8Bの撮像日時情報TB3に示すように、フレーム落ちが発生した場合の経過時間は、図8Aの撮像日時情報TB2に示す経過時間よりも短く算出される。例えば、対象フレーム画像400は、開始フレーム画像からの経過時間が「15分34秒(934000ミリ秒)」で表示されるフレーム画像である。しかし、フレーム落ちが発生していた場合、対象フレーム画像400が表示されるまでに表示されるフレーム画像の数は減少する(スキップされる)。よって、図8Bに示す例において、対象フレーム画像400は、開始フレーム画像(つまり、経過時間0(ゼロ)秒)の撮像日時情報「2019年5月14日 09:00:00」から経過時間が「931000ミリ秒(つまり、15分21秒)」で表示される。したがって、解析部321あるいはユーザは、対象フレーム画像400が撮像された撮像日時情報を「2019年5月14日 09:15:34」のように誤って算出してしまう可能性があった。
上述のように、フレーム落ちが発生した場合、対象フレーム画像400には誤った撮像日時情報が対応付けられ、記憶される。よって、ユーザが所定の時刻に撮像されたフレーム画像(またはオブジェクト画像404)を検索する場合、誤った撮像日時情報が対応付けられたフレーム画像、あるいは該当するフレーム画像がないという検索結果が得られてしまうため、撮像されたフレーム画像を有用な証拠情報として活用できなかった。
これに対して、本実施の形態に係る録画管理システム1は、日時OSD画像を撮像されたフレーム画像(またはオブジェクト画像404)に重畳表示するため、フレーム落ちによる撮像日時情報のズレが生じない。よって、ユーザは、撮像日時情報402を用いて検索することができるとともに、撮像されたフレーム画像を有用な証拠情報として活用できる。
なお、解析部321は、対象フレーム画像400までの経過時間と、撮像日時情報402との対応関係を示す情報を、録画データ210のメタ情報211に加えてよい。また、解析部321は、対象フレーム画像400のシーケンス番号に対して、撮像日時情報402を対応付け、対応関係を示す情報を、録画データ210のメタ情報211に加えてもよい。また、メタ情報211は、録画データ210に含まれる場合に限られない。例えば、メタ情報211は、録画データ210とは別のファイルとして管理されてもよい。
次に、検索部322の処理について詳細に説明する。検索部322は、例えば、複数のオブジェクト画像404を、各オブジェクト画像404に対応付けられている撮像日時情報402に基づいて時系列に並べて表示する。
図9は、複数のオブジェクト画像404のそれぞれを撮像されたカメラ100ごとに表示する例を示す図である。
図9に示すように、解析部321は、複数のカメラ100のそれぞれのうち「カメラ#1」によって撮像された録画データ210から、人物が映る複数のオブジェクト画像404(つまり、フレーム画像)のそれぞれを抽出する。解析部321は、抽出された複数のオブジェクト画像404のそれぞれに対応付けられた撮像日時情報402に基づいて、複数のオブジェクト画像404のそれぞれと、オブジェクト画像404ごとに対応付けられた撮像時刻情報のそれぞれとを時系列に並べて出力部308に出力し、表示させる。また、解析部321は、複数のカメラ100のそれぞれのうち「カメラ#2」によって撮像された録画データ210から、人物が映る複数のオブジェクト画像404のそれぞれを抽出する。解析部321は、複数のオブジェクト画像404のそれぞれに対応付けられた撮像日時情報402に基づいて、複数のオブジェクト画像404のそれぞれと、オブジェクト画像404ごとに対応付けられた撮像時刻情報のそれぞれとを時系列に並べて出力部308に出力し、表示させる。
また、図9に示すように、解析部321は、同一のオブジェクト(例えば同一人物)が撮像されていると推定された複数のオブジェクト画像404のそれぞれ(以下「同一オブジェクト画像」と称する)を、共通のパターンまたは色の枠601Aで囲んでもよい。これにより、ユーザは、複数のオブジェクト画像404の中から同一オブジェクト画像をパターンあるいは色で認識できる。なお、解析部321は、ユーザによって指定された検索条件(例えば、性別、色、車種など)がある場合には、同一の条件を有すると推定された同一オブジェクト画像のそれぞれを、共通のパターンあるいは色の枠で囲んで、出力部308に表示してもよい。
図10は、複数のカメラ100のそれぞれで撮像された複数のオブジェクト画像404のそれぞれをまとめて表示する例を示す図である。
検索部322は、複数のカメラ100のそれぞれのうち「カメラ#1」および「カメラ#2」のによって撮像された録画データ210から抽出された人物が映る複数のオブジェクト画像404のそれぞれを抽出する。検索部322は、「カメラ#1」および「カメラ#2」を区別することなく、各オブジェクト画像404に対応付けられた撮像日時情報402に基づいて、時系列に並べて並べて出力部308に出力し、表示させる。さらに、検索部322は、図10に示すように、同一オブジェクト画像をまとめて、共通のパターンまたは色の枠601Bで囲む処理を実行する。なお、検索部322は、同一オブジェクト画像が連続して並ぶ場合、1つの共通のパターンまたは色の枠601Bで複数の同一オブジェクト画像のそれぞれを囲む。これにより、ユーザは、複数のオブジェクト画像404の中から、同一オブジェクト画像をパターンあるいは色で確認できる。
なお、図9および図10において、検索部322は、共通のパターンまたは色の枠601A、601Bに限らず、共通のマーク,文字,数字あるいは記号などの情報を、同一オブジェクト画像に付してもよい。また、図9および図10に示す複数のオブジェクト画像のそれぞれが横一列に並んで表示される例を示しているが、複数のオブジェクト画像のそれぞれの表示方法は、これに限定されないことは言うまでもない。
図11は、本実施の形態に係る録画管理装置300の処理手順例を示すフローチャートである。図11に示す処理は、録画データ210ごとに実行されてよい。
解析部321は、ストレージ303に記憶された録画データ210を読み込む(S101)。
解析部321は、録画データ210のメタ情報211に撮像日時情報402が含まれているか否かを判定する(S102)。
解析部321は、ステップS102の処理の結果、メタ情報211に撮像日時情報402が含まれている場合(S102,YES)、録画データ解析に関する処理を実行する(S200)。
一方、解析部321は、ステップS102の処理の結果、メタ情報211に撮像日時情報402が含まれていない場合(S102,NO)、さらに録画データ210の各フレーム画像に日時OSD画像401が含まれているか否かを判定する(S103)。例えば、解析部321は、ユーザに対して各フレーム画像に日時OSD画像401が含まれているか否かを問い合わせ、問い合わせに対するユーザからの応答(つまり、入力操作)に基づいて、各フレーム画像に日時OSD画像401が含まれているか否かの判定を実行してよい。また、解析部321は、少なくとも1つのフレーム画像に対して画像解析を行い、日時OSD画像401が含まれているか否かを判定してもよい。
解析部321は、ステップS103の処理の結果、各フレーム画像に日時OSD画像401が含まれていない場合(S103,NO)、録画データ解析に関する処理を実行する(S200)。
一方、解析部321は、ステップS103の処理の結果、各フレーム画像に日時OSD画像401が含まれている場合(S103,YES)、フレーム画像における日時OSD画像401の重畳表示領域を設定する(S104)。なお、フレーム画像における日時OSD画像401の重畳表示領域の設定は、解析部321は、図6に示すように、ユーザに対して日時OSD画像401の重畳表示領域を問い合わせ、問い合わせに対するユーザからの応答(つまり、入力操作)に基づいて、日時OSD画像401の重畳表示領域を設定する。また、解析部321は、少なくとも1つのフレーム画像に対して画像解析を行い、日時OSD画像401の重畳表示領域を特定し、設定してもよい。
解析部321は、図7に示すように、日時OSD画像401の表記フォーマットを設定する(S105)。解析部321は、ユーザに対して日時OSD画像401の表記フォーマットを問い合わせ、問い合わせに対するユーザの応答(つまり、入力操作)に基づいて、日時OSD画像401の表記フォーマットを設定する。
解析部321は、設定された表記フォーマットに基づいて、撮像日時情報402の出力フォーマットを設定する(S106)。なお、ここで設定される出力フォーマットは、生成される撮像日時情報のフォーマットを示す。出力フォーマットは、日時OSD画像401の表記フォーマットによらないことは言うまでもない。解析部321は、ユーザによって入力された出力フォーマットを設定する。
解析部321は、録画データ解析の処理を実行し(S200)、本実施の形態に係る録画管理装置300における解析部321の処理を終了する。なお、ステップS200における録画データ解析の処理については後述する(図12参照)。
図12は、本実施の形態に係る録画データ解析の処理手順例を示すフローチャートである。図12に示す処理は、図11のステップS200における録画データ解析の処理に該当する。
解析部321は、録画データ210の各フレーム画像に対して、以下のステップS202からステップS206における処理を実行する(S201)。なお、ステップS201からステップS206における処理の説明において、処理対象に選択されたフレーム画像を、対象フレーム画像400と称する。なお、解析部321は、録画データ210のすべてのフレーム画像を選択するとは限らない。例えば、解析部321は、所定の間隔にてフレーム画像を選択してもよい。所定の間隔は、日時OSD画像401が示す最小時間単位の間隔(例えば1秒間隔)であってもよい。
解析部321は、対象フレーム画像400から、日時OSD画像401を抽出する(S202)。このとき、解析部321は、ステップS104における処理で設定された日時OSD画像401の重畳表示領域から、日時OSD画像401を抽出してよい。
解析部321は、抽出された日時OSD画像401から、撮像日時情報402を生成する(S203)。このとき、解析部321は、ステップS105における処理で設定された出力フォーマットに基づいて、撮像日時情報402を生成してよい。
解析部321は、対象フレーム画像400に対して、ステップS203の撮像日時情報402を対応付ける(S204)。このとき、解析部321は、対象フレーム画像400と撮像日時情報との対応関係を示す情報を、録画データ210のメタ情報211に付加してよい。
解析部321は、対象フレーム画像400から、予め定められた抽出対象(例えば人物および/または車両)が映るオブジェクト画像404を抽出する(S205)。
解析部321は、抽出したオブジェクト画像404に対して、ステップS203の撮像日時情報402を対応付ける。解析部321は、抽出された複数のオブジェクト画像404のそれぞれを識別可能な識別情報(例えばオブジェクトナンバーなど)に、撮像日時情報402を対応付ける(S206)。なお、解析部321は、対応関係を示す情報を、録画データ210のメタ情報211に付加してよい。
解析部321は、録画データ210の各フレーム画像に対して、ステップS202からステップS206における処理を実行した後(S207)、本実施の形態に係る録画データ解析の処理を終了する。
なお、図11に示すステップS102の判定結果が「YES」の場合、あるいは、図11に示すステップS103の判定結果が「NO」の場合、解析部321は、図12に示す処理手順において、ステップS205における処理を実行し、ステップS202〜ステップS204およびステップS206における処理を実行しなくてもよい。
以上により、本実施の形態に係る録画管理システム1は、カメラの撮像影画像が録画された録画データにフレーム落ちが発生しても、撮像画像が撮像された撮像日時情報を適正に取得できる。
図13は、本実施の形態に係る録画管理装置300の処理手順例を示すフローチャートである。図13に示す録画管理装置300の処理は、ユーザが録画データあるいはすでに抽出された複数のオブジェクト画像のそれぞれに対して所定の検索を実行する際の処理である。
検索部322は、ユーザの入力操作によって、カメラ100、撮像日時情報、抽出対象などに関する検索条件を受け付ける(S301)。検索条件は、例えば所定のエリア内に設置されたカメラ100に限定する条件であってもよいし、所定の時間帯の撮像日時であってもよいし、人物あるいは車両などの抽出対象であってもよいし、人物あるいは車両の色であってもよい。また、検索条件は1つでなく複数の条件であってよく、さらにAND検索可能であってよい。
検索部322は、ユーザから、オブジェクト画像404の表示方法の選択として、例えば「カメラごとに表示」あるいは「まとめて表示」のいずれかを受け付ける(S302)。なお、表示方法は、これに限定されないことは言うまでもない。
検索部322は、ユーザの入力操作の結果「カメラごとに表示」が選択された場合(S303,カメラごとに表示)、ステップS301で入力された検索条件の検索結果として得られた複数のオブジェクト画像のそれぞれおよびその撮像日時情報を撮像されたカメラ100ごとに時系列に並べて出力部308に出力し、表示させる(S304)。
検索部322は、ユーザの入力操作の結果「まとめて表示」が選択された場合(S303,まとめて表示)、ステップS301で入力された検索条件の検索結果として得られた複数のオブジェクト画像のそれぞれおよびその撮像日時情報を時系列に並べて出力部308に出力し、表示させる(S305)。
以上により、本実施の形態に係る録画管理システム1は、所定のカメラによって撮像された撮像画像を有用な証拠情報として取得するとともに、撮像画像を所定の検索条件によって検索可能とすることでユーザが希望する撮像画像の取得を効率的に支援できる。
なお、本実施の形態に係る録画管理システム1は、録画装置200と通信可能に接続されたカメラ100によって撮像された撮像画像(映像)を、通信ネットワーク3を介して受信する録画管理装置300の例について説明したが、これに限定されない。例えば、録画管理システム1における録画管理装置300は、OSD機能を有するカメラ100によって撮像された撮像画像(映像)をUSB(Universal Serial Bus)メモリあるいはSDメモリカードなどの記憶装置によって受信してもよいし、USBケーブルなどによってカメラ100との間で有線接続され、直接受信してよい。さらに、このような場合、カメラは、タブレットあるいはスマートフォンに備えられたカメラであってもよい。これにより、録画管理システム1は、通信ネットワークで通信可能に接続されていない、例えば個人が所有するカメラからも同様に撮像画像(映像)を取得できる。
以上により、本実施の形態に係る録画管理装置300は、少なくとも1つのカメラ100によって撮像され、撮像日時を示す日時画像(日時OSD画像401)を含む複数のフレーム画像によって構成された撮像映像(録画データ210)を受信する受信部306Bと、日時画像(日時OSD画像401)から撮像日時の情報を抽出してフレーム画像が撮像された撮像日時情報402を生成し、生成された撮像日時情報402とフレーム画像とを対応付ける処理部301と、を備える。
これにより、本実施の形態に係る録画管理装置300は、対象フレーム画像400と撮像日時情報402との対応関係を認識できるので、例えば、撮像日時情報402を利用したフレーム画像の検索機能を提供できる。よって、ユーザは、このような機能を利用し、録画データ210を確認する際の負担を軽減できる。
また、本実施の形態に係る録画管理装置300における処理部301は、日時画像(日時OSD画像401)が表示される表示領域(位置)の入力に応じて撮像映像における日時画像(日時OSD画像401)の表示領域を設定し、設定された表示領域に基づいて、フレーム画像から日時画像(日時OSD画像401)を抽出する。これにより、本実施の形態に係る録画管理装置300は、撮像されたフレーム画像の撮像領域全域に対して画像解析を実行することなく、日時画像(日時OSD画像401)が表示される表示領域(位置)から日時画像(日時OSD画像401)を抽出できる。よって、録画管理装置300は、1枚のフレーム画像に対して撮像日時情報402を対応付ける処理に要する時間を短縮できるとともに、発生する処理負荷を低減できる。
また、本実施の形態に係る録画管理装置300における処理部301は、日時画像に示される撮像日時(日時OSD画像401)の表記フォーマットの入力に応じて撮像映像における表記フォーマットを設定し、設定された表記フォーマットに基づいて、日時画像(日時OSD画像401)から撮像日時情報402を抽出する。これにより、本実施の形態に係る録画管理装置300は、日時画像(日時OSD画像401)から撮像日時情報402を適正に抽出できる。
また、本実施の形態に係る録画管理装置300における処理部301は、撮像日時情報402とフレーム画像とを対応付けた撮像映像を蓄積部に記憶する。これにより、本実施の形態に係る録画管理装置300は、同一の撮像映像に対して撮像日時情報402とフレーム画像とを対応付ける処理を複数回実行しなくてよい。
また、本実施の形態に係る録画管理装置300における処理部301は、撮像日時情報402とフレーム画像とを対応付けた撮像映像を表示デバイスに表示する。これにより本実施の形態に係る録画管理装置300は、撮像日時情報402が対応付けられた後の撮像映像をユーザに提示できる。また、ユーザは、撮像映像にフレーム落ちが発生している場合でも、フレーム画像(撮像映像)が撮像された撮像日時情報402を適正に取得できる。さらにユーザは、撮像画像が撮像された撮像日時情報を適正に取得できるため、撮像されたフレーム画像(撮像映像)を有用な証拠情報として取得できる。
また、本実施の形態に係る録画管理装置300における処理部301は、撮像映像のうち入力されたオブジェクトが映るオブジェクト画像404とオブジェクト画像404の撮像日時情報402とを抽出し、抽出されたオブジェクト画像404と撮像日時情報402とを対応付ける。これにより、本実施の形態に係る録画管理装置300は、ユーザが検索したい検索条件(抽出対象)として入力されたオブジェクトが映るオブジェクト画像404とオブジェクト画像404が撮像された撮像日時情報402とを適切に取得して提示できる。よって、ユーザは、撮像映像にフレーム落ちが発生している場合でも、オブジェクト画像404が撮像された撮像日時情報402を適正に取得できるとともに、オブジェクト画像404を有用な証拠情報として取得できる。
また、本実施の形態に係る録画管理装置300における処理部301は、複数のカメラのそれぞれによって撮像され、入力されたオブジェクトが映る複数のオブジェクト画像を抽出し、複数のオブジェクト画像のそれぞれに対応付けられた撮像日時情報402に基づいて、複数のオブジェクト画像を時系列に並べて出力する。これにより、本実施の形態に係る録画管理装置300は、ユーザが検索したい検索条件(抽出対象)として入力されたオブジェクトが映るオブジェクト画像404とオブジェクト画像404が撮像された撮像日時情報402とを、撮像日時情報402に基づいて、時系列に並べて出力できる。よって、ユーザは、撮像映像にフレーム落ちが発生している場合でも、オブジェクト画像404が撮像された撮像日時情報402を適正に取得できるとともに、オブジェクト画像404を時系列順に確認できる。
また、本実施の形態に係る録画管理装置300におけるオブジェクトは、人物であり、処理部301は、出力された複数のオブジェクト画像のそれぞれに映る人物が同一人物であると推定されたオブジェクト画像に関連付けて、同一人物が映る撮像画像であることを示す情報を付与して出力する。これにより、ユーザは、出力された複数のオブジェクト画像のそれぞれのち、所定のオブジェクト画像に映る人物と同一人物がいるか否かを容易に確認できる。
また、本実施の形態に係る録画管理装置300における処理部301は、入力された撮像日時情報の期間に含まれる撮像日時情報402が対応付けられたオブジェクト画像404を出力する。これにより、本実施の形態に係る録画管理装置300は、ユーザが検索したい検索条件(抽出対象)として入力された撮像日時情報の期間に含まれるが映る撮像日時情報402が対応付けられたオブジェクト画像404のみを出力できる。よって、ユーザは、複数のオブジェクト画像のそれぞれのうち、所定の撮像日時情報の期間に撮像されたオブジェクト画像404のみを取得し、確認することができる。
また、本実施の形態に係る録画管理装置300における処理部301は、オブジェクト画像404を表示デバイスに表示する。これにより、ユーザは、オブジェクト画像404と撮像日時情報402とを表示デバイス上で確認できる。
以上、添付図面を参照しながら実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した実施の形態における各構成要素を任意に組み合わせてもよい。
本開示は、カメラの撮像影画像が録画された録画データにフレーム落ちが発生しても、撮像画像が撮像された撮像日時情報を適正に取得する録画管理装置、録画管理方法、録画管理システムおよびプログラムとして有用である。
1 録画管理システム
2,3 通信ネットワーク
100 カメラ
101 撮像部
102,201,301 処理部
103,202,302 メモリ
104,204,304 通信部
105,205,305 内部バス
106A,206A,306A 送信部
106B,206B,306B 受信部
110 動画データ
111 メタ情報
200 録画装置
203,303 ストレージ
210 録画データ
211 メタ情報
300 録画管理装置
307 操作部
308 出力部
321 解析部
322 検索部
400 対象フレーム画像
401 日時OSD画像
402 撮像日時情報
404 オブジェクト画像

Claims (13)

  1. 少なくとも1つのカメラによって撮像され、撮像日時を示す日時画像を含む複数のフレーム画像によって構成された撮像映像を受信する受信部と、
    前記日時画像から前記撮像日時の情報を抽出して前記フレーム画像が撮像された撮像日時情報を生成し、生成された前記撮像日時情報と前記フレーム画像とを対応付ける処理部と、を備える、
    録画管理装置。
  2. 前記処理部は、前記日時画像が表示される表示領域の入力に応じて前記撮像映像における前記日時画像の前記表示領域を設定し、設定された前記表示領域に基づいて、前記フレーム画像から前記日時画像を抽出する、
    請求項1に記載の録画管理装置。
  3. 前記処理部は、前記日時画像に示される前記撮像日時の表記フォーマットの入力に応じて前記撮像映像における表記フォーマットを設定し、設定された前記表記フォーマットに基づいて、前記日時画像から前記撮像日時情報を抽出する、
    請求項1または2に記載の録画管理装置。
  4. 前記処理部は、前記撮像日時情報と前記フレーム画像とを対応付けた撮像映像を蓄積部に記憶する、
    請求項1に記載の録画管理装置。
  5. 前記処理部は、前記撮像日時情報と前記フレーム画像とを対応付けた撮像映像を表示デバイスに表示する、
    請求項1に記載の録画管理装置。
  6. 前記処理部は、前記撮像映像のうち入力されたオブジェクトが映るオブジェクト画像と前記オブジェクト画像の前記撮像日時情報とを抽出し、抽出された前記オブジェクト画像と前記撮像日時情報とを対応付ける、
    請求項1〜3のいずれか1項に記載の録画管理装置。
  7. 前記処理部は、複数のカメラのそれぞれによって撮像され、入力された前記オブジェクトが映る前記複数のオブジェクト画像を抽出し、前記複数のオブジェクト画像のそれぞれに対応付けられた前記撮像日時情報に基づいて、前記複数のオブジェクト画像を時系列に並べて出力する、
    請求項6に記載の録画管理装置。
  8. 前記オブジェクトは人物であり、
    前記処理部は、出力された前記複数のオブジェクト画像のそれぞれに映る前記人物が同一人物であると推定されたオブジェクト画像に関連付けて、同一人物が映る撮像画像であることを示す情報を付与して出力する、
    請求項7に記載の録画管理装置。
  9. 前記処理部は、入力された前記撮像日時情報の期間に含まれる前記撮像日時情報が対応付けられた前記オブジェクト画像を出力する、
    請求項6〜8のいずれか1項に記載の録画管理装置。
  10. 前記処理部は、前記オブジェクト画像を表示デバイスに表示する、
    請求項6〜9のいずれか1項に記載の録画管理装置。
  11. 少なくとも1つのカメラによって撮像され、撮像日時を示す日時画像を含む複数のフレーム画像によって構成された撮像映像を受信し、
    前記日時画像から前記撮像日時の情報を抽出して前記フレーム画像が撮像された撮像日時情報を生成し、生成された前記撮像日時情報と前記フレーム画像とを対応付ける、
    録画管理方法。
  12. 少なくとも1つのカメラと録画管理装置とが通信可能に接続された録画管理システムであって、
    前記カメラは、
    撮像日時を示す日時画像を重畳された複数のフレーム画像を生成し、
    前記複数のフレーム画像によって構成された撮像映像を生成して前記録画管理装置に送信し、
    前記録画管理装置は、
    前記撮像映像を受信し、
    前記日時画像から前記撮像日時の情報を抽出して前記フレーム画像が撮像された撮像日時情報を生成し、
    生成された前記撮像日時情報と前記フレーム画像とを対応付ける、
    録画管理システム。
  13. 少なくとも1つのカメラによって撮像され、撮像日時を示す日時画像を含む複数のフレーム画像によって構成された撮像映像を受信するステップと、
    前記日時画像から前記撮像日時の情報を抽出して前記フレーム画像が撮像された撮像日時情報を生成し、生成された前記撮像日時情報と前記フレーム画像とを対応付けるステップと、を実現させるための、
    プログラム。
JP2019170722A 2019-09-19 2019-09-19 録画管理装置、録画管理方法、録画管理システムおよびプログラム Pending JP2021048527A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019170722A JP2021048527A (ja) 2019-09-19 2019-09-19 録画管理装置、録画管理方法、録画管理システムおよびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019170722A JP2021048527A (ja) 2019-09-19 2019-09-19 録画管理装置、録画管理方法、録画管理システムおよびプログラム

Publications (1)

Publication Number Publication Date
JP2021048527A true JP2021048527A (ja) 2021-03-25

Family

ID=74878796

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019170722A Pending JP2021048527A (ja) 2019-09-19 2019-09-19 録画管理装置、録画管理方法、録画管理システムおよびプログラム

Country Status (1)

Country Link
JP (1) JP2021048527A (ja)

Similar Documents

Publication Publication Date Title
JP6399356B2 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
US10337962B2 (en) Visible audiovisual annotation of infrared images using a separate wireless mobile device
US8373755B2 (en) Network camera and system and method for operating the network camera and system
US10838460B2 (en) Monitoring video analysis system and monitoring video analysis method
KR20120130936A (ko) 감시 시스템
CN107770486B (zh) 事件搜索设备和系统
JP7497853B2 (ja) 顔検知システム
US11811976B2 (en) Information processing system to obtain and manage images of a property
US20200296324A1 (en) Video management system and video management method
JP7207450B2 (ja) 情報処理装置、情報処理方法および情報処理システム
JP6396682B2 (ja) 監視カメラシステム
KR20120054971A (ko) 네트워크 카메라 및 이를 이용한 대상 추적 방법
KR101420006B1 (ko) 분산처리 기반 카메라 영상 서비스 시스템 및 방법
JP2006093955A (ja) 映像処理装置
JP2017118319A (ja) 映像検索システム
JP2021048527A (ja) 録画管理装置、録画管理方法、録画管理システムおよびプログラム
WO2018043372A1 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラムプロダクト
JP7085925B2 (ja) 情報登録装置、情報処理装置、情報登録装置の制御方法、情報処理装置の制御方法、システム、及びプログラム
JP7398184B1 (ja) 映像提供システム、映像提供方法および映像提供プログラム
JP7547676B1 (ja) 映像提供システム、映像提供方法および映像提供プログラム
JP2019101783A (ja) 情報処理装置及び方法
US10861495B1 (en) Methods and systems for capturing and transmitting media
KR101354438B1 (ko) 모바일 단말을 기반으로 한 영상 관제 시스템 및 이의 관제 영상 실시간 스트리밍 방법
KR101992600B1 (ko) 뷰잉볼륨을 이용한 영상 검색 장치
KR20120045559A (ko) 전자 경매 히스토리 기록 시스템 및 방법

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191205

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201224