JP2009044353A - 監視装置、監視方法及び監視システム - Google Patents
監視装置、監視方法及び監視システム Download PDFInfo
- Publication number
- JP2009044353A JP2009044353A JP2007205944A JP2007205944A JP2009044353A JP 2009044353 A JP2009044353 A JP 2009044353A JP 2007205944 A JP2007205944 A JP 2007205944A JP 2007205944 A JP2007205944 A JP 2007205944A JP 2009044353 A JP2009044353 A JP 2009044353A
- Authority
- JP
- Japan
- Prior art keywords
- audio
- video
- frame
- unit
- synchronization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Television Signal Processing For Recording (AREA)
- Closed-Circuit Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】再生した映像に対する音声の音飛びを抑えること。
【解決手段】監視場所の映像フレームを生成する撮像部から、映像フレームを取得する時刻を映像フレーム用タイムスタンプとして、映像フレームに付与する映像バッファ部12と、監視場所の音声フレームを生成する集音部から、音声フレームを取得する時刻を音声フレーム用タイムスタンプとして、音声フレームに付与する音声バッファ部11と、音声バッファ部11より取得する音声フレームと、映像バッファ部12より取得する映像フレームに対して、音声フレーム用タイムスタンプを基準として映像フレーム用タイムスタンプを同期させる音声基準の同期処理を行うとともに、同期させた音声フレームを組み立てた出力用フレームセットを、放音部14に出力し、同期させた映像フレームを組み立てた表示用フレームセットを、表示部19に出力する再生部15と、を備える。
【選択図】図1
【解決手段】監視場所の映像フレームを生成する撮像部から、映像フレームを取得する時刻を映像フレーム用タイムスタンプとして、映像フレームに付与する映像バッファ部12と、監視場所の音声フレームを生成する集音部から、音声フレームを取得する時刻を音声フレーム用タイムスタンプとして、音声フレームに付与する音声バッファ部11と、音声バッファ部11より取得する音声フレームと、映像バッファ部12より取得する映像フレームに対して、音声フレーム用タイムスタンプを基準として映像フレーム用タイムスタンプを同期させる音声基準の同期処理を行うとともに、同期させた音声フレームを組み立てた出力用フレームセットを、放音部14に出力し、同期させた映像フレームを組み立てた表示用フレームセットを、表示部19に出力する再生部15と、を備える。
【選択図】図1
Description
本発明は、監視カメラから取得する映像フレームと音声フレームを同期させて、映像を表示し、音声を出力する場合に適用して好適な監視装置、監視方法及び監視システムに関する。
従来、監視カメラと制御装置とをネットワークを介して接続した監視システムが用いられている。このような監視システムにおいて、監視カメラは、撮像した映像データを、ネットワークを介して制御装置に送信する。制御装置は、受信した映像データを保存するとともに、映像データを解析することで異常の発生を検出し、アラームを出力する。監視員は、モニタに表示される監視映像及び制御装置が出力したアラームの内容を確認しながら監視を行うことができる。
また、監視カメラは、音声を集音する機能を有しており、撮像した映像と集音した音声を同時に制御装置に送信することも可能である。このような監視カメラは、映像と音声の取得を個別に行っている。このため、制御装置は、受信した映像フレームと音声フレームに付与された取得時間(以降タイムスタンプと称する。)を用いて同期をとることによって、記録や再生を行っている。
特許文献1には、不審者を検知し、監視者へ警報を出すと共に監視区域外へ逃走した不審者を自動的に追跡する技術について記載されている。
特許文献2には、住人が外出先から家の内外部の詳細な情報を得て、訪問者の識別や要件の確認をすることができる技術について記載されている。
特開2005−250634号公報
特開2001−76273号公報
ところで、従来の監視システムでは映像フレームに付与されたタイムスタンプを基準として同期処理を行っているため、ネットワークの不調などにより映像の欠落が起こった場合、欠落箇所の映像フレームに対して、音声フレームを同期することができず、音声フレームが飛んでしまう現象が発生していた。このような場合、映像と音声の時間ずれが大きくなり、次の映像と音声の同期時に大きく音声フレームが大きく飛んでしまう可能性がある。このため、監視システムでは音声フレームを取得しているにもかかわらず、いわゆる音飛び状態となってしまう問題がある。
一般的に、映像は音声に比べ単位時間当たりのフレーム数が、音声よりも多いため、映像の連続性が重要となる。しかしながら、従来の監視システムでは音声が副次的に利用されていただけであった。このため、例えば映像の情報量が落ちる夜間監視、相対的に音声の重要性が高まる環境、会話内容が重要な状況下にあっても、音とびが発生する危険があった。
本発明はこのような状況に鑑みて成されたものであり、再生した映像に対する音声の音飛びを抑えることを目的とする。
本発明は、監視カメラで撮像した監視映像による監視を行う場合において、監視場所の映像による映像フレームを生成する撮像部から、映像フレームを取得する時刻を映像フレーム用タイムスタンプとして、映像フレームに付与し、映像フレームで示される監視場所の音声による音声フレームを生成する集音部から、音声フレームを取得する時刻を音声フレーム用タイムスタンプとして、音声フレームに付与し、音声フレームと映像フレームに対して、音声フレーム用タイムスタンプを基準として映像フレーム用タイムスタンプを同期させる音声基準の同期処理を行うとともに、同期させた映像フレームを組み立てた表示用フレームセットを、映像を表示する表示部に出力し、同期させた音声フレームを組み立てた出力用フレームセットを、音声を放音する放音部に出力する。
このようにしたことで、音声フレーム用タイムスタンプを基準として映像フレーム用タイムスタンプを同期させる同期処理を行って、音声フレームと映像フレームを同期させて、音声出力し、映像表示することが可能となった。
本発明によれば、音声フレーム用タイムスタンプを基準として映像フレーム用タイムスタンプを同期させる同期処理を行って、音声フレームと映像フレームを同期させるため、音声が重視される環境下であっても、音声が途切れることなく出力できるという効果がある。
以下、本発明の第1の実施形態例について、図1〜図11を参照して説明する。本実施の形態例では、監視場所の映像による映像フレームを生成する撮像部と、映像フレームで示される監視場所の音声による音声フレームを生成する集音部を備えるカメラより、取得した音声フレームと映像フレームの同期をとり、映像を表示し、音声を出力する監視システム10に適用した例としてある。
<本発明のベースとなる環境>
図1は、監視システム10のシステム構成例を示す図である。監視システム10は、監視対象物を撮像し、映像フレームを生成するとともに、監視対象物の音声を集音し、音声フレームを生成する映像・音声フレーム生成ネットワークカメラ1a〜1nと、取得した映像フレームと音声フレームを保存すると共に、映像と音声を同時に再生可能な監視装置として機能する管理クライアント3と、映像・音声フレーム生成ネットワークカメラ1a〜1nと管理クライアント3とを接続するネットワーク2とで構成される。
図1は、監視システム10のシステム構成例を示す図である。監視システム10は、監視対象物を撮像し、映像フレームを生成するとともに、監視対象物の音声を集音し、音声フレームを生成する映像・音声フレーム生成ネットワークカメラ1a〜1nと、取得した映像フレームと音声フレームを保存すると共に、映像と音声を同時に再生可能な監視装置として機能する管理クライアント3と、映像・音声フレーム生成ネットワークカメラ1a〜1nと管理クライアント3とを接続するネットワーク2とで構成される。
監視システム10は、1台、もしくは複数台の映像・音声フレーム生成ネットワークカメラ1a〜1nを管理する。また、監視システム10は、図示しないアナログ監視カメラから取得したアナログ映像データをデジタル映像データに変換するとともに、アナログ音声データをデジタル音声データ(音声フレーム)に変換し、ネットワーク2を介して管理クライアント3に供給する映像・音声フレーム生成ネットワークデバイス4を管理する。
映像・音声フレーム生成ネットワークカメラ1a〜1nと、映像・音声フレーム生成ネットワークデバイス4(以下、単にカメラ群と称する。)が生成した音声フレームは、ネットワーク2を介して伝送される。同様に、カメラ群が生成した映像フレームは、ネットワーク2を介して伝送される。管理クライアント3は、ネットワーク2を介して音声フレームと映像フレームを取得し、保存する。音声フレームと映像フレームを再生する場合には、音声フレームに付与された音声フレーム用タイムスタンプに、映像フレームに付与された映像フレーム用タイムスタンプを同期させる。このようにして、管理クライアント3は、映像と音声の同期をとった状態で再生することができる。
一般的に映像は音声に対し、単位時間当たりのフレーム取得数が少ない。このため、音声フレーム用タイムスタンプと同じ値の映像フレーム用タイムスタンプが付与された映像フレームが存在しない場合、最もタイムスタンプが近い映像フレームとの同期を行う。
以下の説明では、音声フレームに付与された音声フレーム用タイムスタンプを基準として、映像フレームに付与された映像フレーム用タイムスタンプを同期させることを、「音声基準」又は「音声基準の同期処理」と称する。
一方、映像フレームに付与された映像フレーム用タイムスタンプを基準として、音声フレームに付与された音声フレーム用タイムスタンプを同期させることを、「映像基準」又は「映像基準の同期処理」と称する。
また、音声基準と映像基準のうち、再生部15と同期部16で有効になっている同期処理を「同期ルール」とも称する。
以下の説明では、音声フレームに付与された音声フレーム用タイムスタンプを基準として、映像フレームに付与された映像フレーム用タイムスタンプを同期させることを、「音声基準」又は「音声基準の同期処理」と称する。
一方、映像フレームに付与された映像フレーム用タイムスタンプを基準として、音声フレームに付与された音声フレーム用タイムスタンプを同期させることを、「映像基準」又は「映像基準の同期処理」と称する。
また、音声基準と映像基準のうち、再生部15と同期部16で有効になっている同期処理を「同期ルール」とも称する。
映像基準と音声基準のうち、どちらを用いるかは設定に応じて変更可能である。この場合、設定変更の日時が定められている設定変更スケジュールが参照される。そして、設定された日時に、同期ルールが映像基準と音声基準のいずれかに切替えられる。その他、一つの音声フレームを基準として複数の同じタイムスタンプを持つ映像フレームを再生することも可能である。
管理クライアント3は、取得した音声フレームに音声フレーム用タイムスタンプを付与する音声バッファ部11と、音声フレームを保存する音声記録部31と、取得した映像フレームに映像フレーム用タイムスタンプを付与する映像バッファ部12と、映像フレームを保存する映像記録部32と、音声基準と映像基準のいずれかの基準による同期処理(同期ルール)に切替える同期ルール切替え部17と、切替えられた同期ルールで音声フレームと映像フレームを同期する同期部16と、同期部16から同期された音声フレームと映像フレームを取得し、同期ルールで同期処理を行う再生部15と、再生部15から取得した表示用フレームセットに基づいて映像を表示する表示部19と、再生部15から取得した出力用フレームセットに基づいて音声を放音する放音部14と、同期ルールを切替えるスケジュールを設定するスケジュール設定部18と、設定したスケジュールを保存するスケジュール記録部33と、を備える。
[音声バッファ部]
カメラ群が集音した音声データは、可変長又は固定長の音声フレームに分割され、ネットワーク2を介して管理クライアント3に伝送される。音声バッファ部11は、管理クライアント3が取得する音声フレームに取得時刻を音声フレーム用タイムスタンプとして付与する。そして、音声バッファ部11は、音声フレーム用タイムスタンプが付与された音声フレームを、大容量のハードディスクドライブ等で構成された音声記録部31に保存する。
また、音声バッファ部11は、音声記録部31から読み出した音声フレームを、後述の再生部15と同期部16に供給する。このとき、音声バッファ部11は、内蔵するRAM等のメモリに所定数の音声フレームを保存した後、再生部15と同期部16に音声フレームを供給する。
カメラ群が集音した音声データは、可変長又は固定長の音声フレームに分割され、ネットワーク2を介して管理クライアント3に伝送される。音声バッファ部11は、管理クライアント3が取得する音声フレームに取得時刻を音声フレーム用タイムスタンプとして付与する。そして、音声バッファ部11は、音声フレーム用タイムスタンプが付与された音声フレームを、大容量のハードディスクドライブ等で構成された音声記録部31に保存する。
また、音声バッファ部11は、音声記録部31から読み出した音声フレームを、後述の再生部15と同期部16に供給する。このとき、音声バッファ部11は、内蔵するRAM等のメモリに所定数の音声フレームを保存した後、再生部15と同期部16に音声フレームを供給する。
[映像バッファ部]
カメラ群が撮像した映像データは、可変長又は固定長の映像フレームに分割され、ネットワーク2を介して管理クライアント3に伝送される。映像バッファ部12は、管理クライアント3が取得する映像フレームに取得時刻を映像フレーム用タイムスタンプとして付与する。そして、映像バッファ部12は、映像フレーム用タイムスタンプが付与された映像フレームを、大容量のハードディスクドライブ等で構成された映像記録部32に保存する。
また、映像バッファ部12は、映像記録部32から読み出した映像フレームを、再生部15と同期部16に供給する。このとき、映像バッファ部12は、内蔵するRAM等のメモリに所定数の映像フレームを保存した後、再生部15と同期部16に映像フレームを供給する。
カメラ群が撮像した映像データは、可変長又は固定長の映像フレームに分割され、ネットワーク2を介して管理クライアント3に伝送される。映像バッファ部12は、管理クライアント3が取得する映像フレームに取得時刻を映像フレーム用タイムスタンプとして付与する。そして、映像バッファ部12は、映像フレーム用タイムスタンプが付与された映像フレームを、大容量のハードディスクドライブ等で構成された映像記録部32に保存する。
また、映像バッファ部12は、映像記録部32から読み出した映像フレームを、再生部15と同期部16に供給する。このとき、映像バッファ部12は、内蔵するRAM等のメモリに所定数の映像フレームを保存した後、再生部15と同期部16に映像フレームを供給する。
[音声記録部]
音声記録部31は、カメラ群から受信した音声フレームを保存するデータベースである。音声記録部31が保存する音声フレームの構成例は以下のとおりである。
・フレーム番号:音声フレームを一意に識別するために必要となる。
・フレームレート:カメラ群が管理クライアント3に送信する音声フレームの送信間隔を示す。フレームレートは、再生部15が音声フレームを取得し、放音する間隔を得るために必要となる。
・音声フレーム用タイムスタンプ:音声バッファ部11が音声フレームを取得した時間。映像フレームとの同期処理に必要となる。
・フレーム本体:音声フレームの本体である。
音声記録部31は、カメラ群から受信した音声フレームを保存するデータベースである。音声記録部31が保存する音声フレームの構成例は以下のとおりである。
・フレーム番号:音声フレームを一意に識別するために必要となる。
・フレームレート:カメラ群が管理クライアント3に送信する音声フレームの送信間隔を示す。フレームレートは、再生部15が音声フレームを取得し、放音する間隔を得るために必要となる。
・音声フレーム用タイムスタンプ:音声バッファ部11が音声フレームを取得した時間。映像フレームとの同期処理に必要となる。
・フレーム本体:音声フレームの本体である。
[映像記録部]
映像記録部32は、カメラ群から受信した映像フレームを保存するデータベースである。映像記録部32が保存する映像フレームの構成例は以下のとおりである。
・フレーム番号:映像フレームを一意に識別するために必要となる。
・フレームレート:カメラ群が管理クライアント3に送信する映像フレームの送信間隔を示す。フレームレートは、再生部15が映像フレームを取得し、表示する間隔を得るために必要となる。
・映像フレーム用タイムスタンプ:映像バッファ部12が映像フレームを取得した時間。音声フレームとの同期処理に必要となる。
・フレーム本体:映像フレームの本体である。
映像記録部32は、カメラ群から受信した映像フレームを保存するデータベースである。映像記録部32が保存する映像フレームの構成例は以下のとおりである。
・フレーム番号:映像フレームを一意に識別するために必要となる。
・フレームレート:カメラ群が管理クライアント3に送信する映像フレームの送信間隔を示す。フレームレートは、再生部15が映像フレームを取得し、表示する間隔を得るために必要となる。
・映像フレーム用タイムスタンプ:映像バッファ部12が映像フレームを取得した時間。音声フレームとの同期処理に必要となる。
・フレーム本体:映像フレームの本体である。
[同期部]
同期部16は、同期ルールが音声基準である場合、映像バッファ13を介して基準とされていない映像フレームを取得し、再生部15に送り出す。一方、同期ルールが映像基準である場合、音声バッファ部11を介して基準とされていない音声フレームを取得し、再生部15に送り出す。
再生部15から同期処理を指示された場合、同期部16は、音声基準である場合、音声フレーム用タイムスタンプに最も近い映像フレーム用タイムスタンプが付与された映像フレームを、新たな対となるフレームセットとして再生部15に送信する。一方、映像基準である場合、映像フレーム用タイムスタンプに最も近い音声フレーム用タイムスタンプが付与された音声フレームを、新たな対となるフレームセットとして再生部15に送信する。
同期部16は、同期ルールが音声基準である場合、映像バッファ13を介して基準とされていない映像フレームを取得し、再生部15に送り出す。一方、同期ルールが映像基準である場合、音声バッファ部11を介して基準とされていない音声フレームを取得し、再生部15に送り出す。
再生部15から同期処理を指示された場合、同期部16は、音声基準である場合、音声フレーム用タイムスタンプに最も近い映像フレーム用タイムスタンプが付与された映像フレームを、新たな対となるフレームセットとして再生部15に送信する。一方、映像基準である場合、映像フレーム用タイムスタンプに最も近い音声フレーム用タイムスタンプが付与された音声フレームを、新たな対となるフレームセットとして再生部15に送信する。
[同期ルール切替え部]
同期ルール切替え部17は、音声基準と映像基準のうち、いずれかに切替えた同期処理を同期ルールとして有効にする処理を行う。同期ルール切替え部17によって切替えられた同期ルールに従って、再生部15と同期部16が取得するフレームが変更される。
同期ルール切替え部17は、音声基準と映像基準のうち、いずれかに切替えた同期処理を同期ルールとして有効にする処理を行う。同期ルール切替え部17によって切替えられた同期ルールに従って、再生部15と同期部16が取得するフレームが変更される。
[再生部]
再生部15は、同期ルール切替え部17によって定められた同期ルールに従って、基準とするフレームを取得する。音声基準の場合、音声バッファ部11を介して音声フレームを取得する。一方、映像基準の場合、映像バッファ部12を介して映像フレームを取得する。そして、再生部15は、同期部16から取得した同期されて対となる音声フレームから出力用フレームセットを作成し、放音部14に送る。同様に、再生部15は、同期部16から取得した同期されて対となる映像フレームから表示用フレームセットを作成し、表示部19に送る。
音声フレーム用タイムスタンプと映像フレーム用タイムスタンプのズレが所定の時間を超えた場合、同期部16に同期指示を出し、同期処理を行う。
再生部15は、同期ルール切替え部17によって定められた同期ルールに従って、基準とするフレームを取得する。音声基準の場合、音声バッファ部11を介して音声フレームを取得する。一方、映像基準の場合、映像バッファ部12を介して映像フレームを取得する。そして、再生部15は、同期部16から取得した同期されて対となる音声フレームから出力用フレームセットを作成し、放音部14に送る。同様に、再生部15は、同期部16から取得した同期されて対となる映像フレームから表示用フレームセットを作成し、表示部19に送る。
音声フレーム用タイムスタンプと映像フレーム用タイムスタンプのズレが所定の時間を超えた場合、同期部16に同期指示を出し、同期処理を行う。
[表示部]
表示部19は、再生部15から供給される表示用フレームセットを元にして、映像を表示する。表示部19は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等で構成される。
表示部19は、再生部15から供給される表示用フレームセットを元にして、映像を表示する。表示部19は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等で構成される。
[放音部]
放音部14は、再生部15から供給される出力用フレームセットを元にして、音声を放音する。放音部14は、アンプ、スピーカ等で構成される。放音部14は、表示部19に組み込まれて構成される。
放音部14は、再生部15から供給される出力用フレームセットを元にして、音声を放音する。放音部14は、アンプ、スピーカ等で構成される。放音部14は、表示部19に組み込まれて構成される。
[スケジュール設定部]
スケジュール設定部18は、時系列的に同期ルールを変更する時間帯を設定する。例えば、監視システム10を書店に設置した場合、9時〜20時までの営業時間内は映像基準の同期を行い、20時〜翌9時までの閉店後は音声基準の同期を行う等の設定が考えられる。
スケジュール設定部18は、時系列的に同期ルールを変更する時間帯を設定する。例えば、監視システム10を書店に設置した場合、9時〜20時までの営業時間内は映像基準の同期を行い、20時〜翌9時までの閉店後は音声基準の同期を行う等の設定が考えられる。
[スケジュール記録部]
スケジュール記録部33は、スケジュール設定部18が設定したスケジュールを保存する。スケジュール記録部33が持つべき情報例は以下になる。
・スケジュール番号(又はスケジュール名):スケジュール情報を一意に識別するために必要となる。
・開始時間:スケジュールを開始する年月日時分秒が定められる。
・終了時間:スケジュールを終了する年月日時分秒が定められる。
・同期ルール:音声基準か映像基準であるかが設定される。
スケジュール記録部33は、スケジュール設定部18が設定したスケジュールを保存する。スケジュール記録部33が持つべき情報例は以下になる。
・スケジュール番号(又はスケジュール名):スケジュール情報を一意に識別するために必要となる。
・開始時間:スケジュールを開始する年月日時分秒が定められる。
・終了時間:スケジュールを終了する年月日時分秒が定められる。
・同期ルール:音声基準か映像基準であるかが設定される。
次に、各部の処理例について、図2〜図8のフローチャートを参照して説明する。
図2は、音声バッファ部11の音声再生処理の例を示す。
初めに、音声バッファ部11は、カメラ群から音声フレームを取得する(ステップS1)。そして、取得した音声フレームの保存が必要か否かを判断する(ステップS2)。
初めに、音声バッファ部11は、カメラ群から音声フレームを取得する(ステップS1)。そして、取得した音声フレームの保存が必要か否かを判断する(ステップS2)。
取得した音声フレームの保存が必要でない場合、ステップS6に処理を移す。一方、取得した音声フレームの保存が必要である場合、音声記録部31に音声フレームを保存する(ステップS3)。その後、保存した音声フレームを取得する必要があるか否かを判断する(ステップS4)。
保存した音声フレームを音声記録部31から取得しない場合、ステップS6に処理を移す。一方、保存した音声フレームを音声記録部31から取得する場合、音声記録部31から音声フレームを取得する(ステップS5)。そして、取得した音声フレームを、音声バッファ部11が備えるメモリ上に格納する(ステップS6)。
その後、カメラ群からの音声フレームの送信を待つか否かを判断する(ステップS7)。カメラ群からの音声フレームの送信を待つ場合、ステップS1の処理に戻って、カメラ群から音声フレームを継続して取得する。カメラ群からの音声フレームの送信を待たない場合、音声再生処理の終了要求があるか否かを判断する(ステップS8)。
音声再生処理の終了要求がない場合、ステップS5の処理に戻って、音声記録部31から音声フレームを取得する。一方、音声再生処理の終了要求がある場合、音声バッファ部の処理を終了する。
図3は、映像バッファ部12の映像再生処理の例を示す。
初めに、映像バッファ部12は、カメラ群から映像フレームを取得する(ステップS11)。そして、取得した映像フレームの保存が必要か否かを判断する(ステップS12)。
初めに、映像バッファ部12は、カメラ群から映像フレームを取得する(ステップS11)。そして、取得した映像フレームの保存が必要か否かを判断する(ステップS12)。
取得した映像フレームの保存が必要でない場合、ステップS16に処理を移す。一方、取得した映像フレームの保存が必要である場合、映像記録部32に映像フレームを保存する(ステップS13)。その後、保存した映像フレームを取得する必要があるか否かを判断する(ステップS14)。
保存した映像フレームを映像記録部32から取得しない場合、ステップS16に処理を移す。一方、保存した映像フレームを映像記録部32から取得する場合、映像記録部32から映像フレームを取得する(ステップS15)。そして、取得した映像フレームを、映像バッファ部12が備えるメモリ上に格納する(ステップS16)。
その後、カメラ群からの映像フレームの送信を待つか否かを判断する(ステップS17)。カメラ群からの映像フレームの送信を待つ場合、ステップS11の処理に戻って、カメラ群から映像フレームを継続して取得する。カメラ群からの映像フレームの送信を待たない場合、映像再生処理の終了要求があるか否かを判断する(ステップS18)。
映像再生処理の終了要求がない場合、ステップS15の処理に戻って、映像記録部32から映像フレームを継続して取得する。一方、映像再生処理の終了要求がある場合、映像バッファ部の処理を終了する。
図4は、同期ルール切替え部17の同期ルール切替え処理の例を示す。
初めに、同期ルール切替え部17は、スケジュール設定部18から同期ルール切替え指示を取得する(ステップS21)。そして、同期ルール切替え部17は、同期ルールの変更が必要か否かを判断する(ステップS22)。
初めに、同期ルール切替え部17は、スケジュール設定部18から同期ルール切替え指示を取得する(ステップS21)。そして、同期ルール切替え部17は、同期ルールの変更が必要か否かを判断する(ステップS22)。
取得した同期ルール切替え指示の変更が必要でない場合、ステップS26に処理を移す。一方、取得した同期ルール切替え指示の変更が必要である場合、再生部15と同期部16に通知する同期ルールを作成する(ステップS23)。
そして、同期ルール切替え部17は、作成した同期ルールを再生部15に通知する(ステップS24)。また、作成した同期ルールを同期部16に通知する(ステップS25)。
その後、同期ルール切替え部17は、同期ルール切替え処理の終了要求があるか否かを判断する(ステップS26)。終了要求がない場合、ステップS21に処理を移す。一方、終了要求がある場合、同期ルール切替え処理を終了する。
図5は、スケジュール設定部18のスケジュール設定処理の例を示す。
初めに、スケジュール設定部18は、スケジュール記録部33に保存されたスケジュールを読み出すことで、各スケジュールを処理する(ステップS31)。そして、現在時刻がスケジュール内であるか否かを判断する(ステップS32)。
初めに、スケジュール設定部18は、スケジュール記録部33に保存されたスケジュールを読み出すことで、各スケジュールを処理する(ステップS31)。そして、現在時刻がスケジュール内であるか否かを判断する(ステップS32)。
スケジュール内でない場合、ステップS31に処理を移す。スケジュール内である場合、同期ルールを作成する(ステップS33)。そして、作成した同期ルールを同期ルール切替え部17に通知する(ステップS34)。
次に、スケジュールの設定変更要求があるか否かを判断する(ステップS35)。スケジュールの設定変更要求がない場合、ステップS31に処理を移す。スケジュールの設定変更要求がある場合、スケジュールの設定を変更する(ステップS36)。
その後、スケジュール設定部18は、スケジュール設定処理の終了要求があるか否かを判断する(ステップS37)。終了要求がない場合、ステップS31に処理を移す。一方、終了要求がある場合、スケジュール設定処理を終了する。
図6は、再生部15が行う再生処理の例を示す。
初めに、再生部15は、同期ルールを解析する(ステップS41)。そして、同期ルールが音声基準であるか否かを判断する(ステップS42)。
初めに、再生部15は、同期ルールを解析する(ステップS41)。そして、同期ルールが音声基準であるか否かを判断する(ステップS42)。
同期ルールが音声基準でない場合(つまり、映像基準である場合)、映像バッファ部12から映像フレームを取得する(ステップS43)。そして、同期部16から音声フレームを取得する(ステップS44)。再生部15は、取得した映像フレームに付与された映像フレーム用タイムスタンプと、音声フレームに付与された音声フレーム用タイムスタンプを比較する(ステップS45)。
そして、再生部15は、比較したタイムスタンプの値が所定間隔以上離れているか否かを判断する(ステップS46)。タイムスタンプの値が所定間隔以上離れていると、同期がズレるため、音声ズレが発生する可能性がある。
タイムスタンプの値が所定間隔以上離れている場合、再生部15は、同期指示を作成する(ステップS47)。そして、同期部16に同期指示を通知し(ステップS48)、ステップS44に処理を移す。
一方、ステップS46の処理で、タイムスタンプの値が所定間隔以上離れていない場合、ステップS61に処理を移す。
一方、ステップS46の処理で、タイムスタンプの値が所定間隔以上離れていない場合、ステップS61に処理を移す。
一方、同期ルールが音声基準である場合、音声バッファ部11から音声フレームを取得する(ステップS51)。そして、同期部16から映像フレームを取得する(ステップS52)。再生部15は、取得した映像フレームに付与された映像フレーム用タイムスタンプと、音声フレームに付与された音声フレーム用タイムスタンプを比較する(ステップS53)。
そして、再生部15は、比較したタイムスタンプの値が所定間隔以上離れているか否かを判断する(ステップS54)。タイムスタンプの値が所定間隔以上離れている場合、再生部15は、同期指示を作成する(ステップS55)。そして、同期部16に同期指示を通知し(ステップS56)、ステップS52に処理を移す。
一方、ステップS54の処理で、タイムスタンプの値が所定間隔以上離れていない場合、ステップS61に処理を移す。
一方、ステップS54の処理で、タイムスタンプの値が所定間隔以上離れていない場合、ステップS61に処理を移す。
再生部15は、再生要求があるか否かを判断する(ステップS61)。再生要求がない場合、ステップS63に処理を移す。再生要求がある場合、音声フレームを組み立てた出力用フレームセットと、映像フレームを組み立てた表示用フレームセットを作成する(ステップS62)。表示用フレームセットと出力用フレームセットは、「表示・出力用フレームセット」として組み合わされる。
その後、再生部15は、再生処理の終了要求があるか否かを判断する(ステップS63)。終了要求がない場合、ステップS41に処理を移す。一方、終了要求がある場合、再生処理を終了する。
図7は、同期部16が行う同期処理の例を示す。
初めに、同期部16は、同期ルールを解析する(ステップS71)。そして、同期ルールが音声基準であるか否かを判断する(ステップS72)。
初めに、同期部16は、同期ルールを解析する(ステップS71)。そして、同期ルールが音声基準であるか否かを判断する(ステップS72)。
同期ルールが音声基準でない場合(つまり、映像基準である場合)、音声バッファ部11から音声フレームを取得する(ステップS73)。そして、再生部15から同期指示を受けたか否かを判断する(ステップS74)。同期指示を受けた場合、ステップS73に処理を移す。
一方、同期指示を受けていない場合、再生用音声フレームを作成する(ステップS75)。再生用音声フレームは、映像基準で映像フレームに音声フレームを同期させた状態とした音声フレームである。そして、同期部16は、再生部15に再生用音声フレームを送信し(ステップS76)、ステップS81に処理を移す。
一方、同期ルールが音声基準である場合、映像バッファ部12から映像フレームを取得する(ステップS77)。そして、再生部15から同期指示を受けたか否かを判断する(ステップS78)。同期指示を受けた場合、ステップS77に処理を移す。
一方、同期指示を受けていない場合、再生用映像フレームを作成する(ステップS79)。再生用映像フレームは、音声基準で音声フレームに映像フレームを同期させた状態とした映像フレームである。そして、同期部16は、再生部15に再生用映像フレームを送信し(ステップS80)、ステップS81に処理を移す。
その後、同期部16は、同期処理の終了要求があるか否かを判断する(ステップS81)。終了要求がない場合、ステップS71に処理を移す。一方、終了要求がある場合、同期処理を終了する。
図8は、表示部19が行う映像の表示処理と、放音部14が行う音声の出力処理の例を示す。
初めに、表示部19は、再生部15に、映像の再生指示を通知する(ステップS91)。そして、再生部15から表示・出力用フレームセットを取得する(ステップS92)。そして、表示部19は、映像を表示するとともに、放音部14に音声を出力する処理を行う(ステップS93)。
初めに、表示部19は、再生部15に、映像の再生指示を通知する(ステップS91)。そして、再生部15から表示・出力用フレームセットを取得する(ステップS92)。そして、表示部19は、映像を表示するとともに、放音部14に音声を出力する処理を行う(ステップS93)。
その後、表示部19は、映像の表示処理と音声の出力処理の終了要求があるか否かを判断する(ステップS94)。終了要求がない場合、ステップS92に処理を移す。一方、終了要求がある場合、映像の表示処理と音声の出力処理を終了する。
次に、各部を組み合わせた処理例について、図9〜図11のシーケンス図を参照して説明する。
図9は、カメラ群から取得した音声フレームと映像フレームを、音声基準で表示・出力する処理の例を示す。
初めに、音声バッファ部11は、カメラ群から音声フレームを取得する(ステップS111)。同時に、映像バッファ部12は、カメラ群から映像フレームを取得する(ステップS112)。
初めに、音声バッファ部11は、カメラ群から音声フレームを取得する(ステップS111)。同時に、映像バッファ部12は、カメラ群から映像フレームを取得する(ステップS112)。
再生部15と同期部16は、同期ルール切替え部17から音声基準とした同期ルールを受取り、内部メモリに保存する(ステップS113,S114)。
そして、再生部15は、音声バッファ部11から音声フレームを取得する(ステップS115)。
そして、再生部15は、音声バッファ部11から音声フレームを取得する(ステップS115)。
同期部16は、映像バッファ部12から映像フレームを取得する(ステップS116)。そして、再生部15は、同期部16から映像フレームを取得する(ステップS117)。
再生部15は、取得した音声フレームに付与されている音声フレーム用タイムスタンプと、映像フレームに付与されている映像フレーム用タイムスタンプを比較する(ステップS118)。
再生部15は、取得した音声フレームに付与されている音声フレーム用タイムスタンプと、映像フレームに付与されている映像フレーム用タイムスタンプを比較する(ステップS118)。
再生部15は、タイムスタンプの比較結果(音声フレーム用タイムスタンプと映像フレーム用タイムスタンプとの時間差)と、事前に定められている所定の時間間隔との比較を行なう(ステップS119)。
比較結果が所定の時間間隔以上である場合、同期部16は、再生部15からフレームの同期指示を取得する(ステップS120)。
同期部16は、同期指示を受け取ると、音声フレームのタイムスタンプと最も近いタイムスタンプを持つ映像フレームを映像バッファ部12から再取得し、再生部15に送信する。このようにして、生部15と同期部16は、比較結果が所定の間隔より小さくなるまでステップS116〜S120の処理を繰り返す。
同期部16は、同期指示を受け取ると、音声フレームのタイムスタンプと最も近いタイムスタンプを持つ映像フレームを映像バッファ部12から再取得し、再生部15に送信する。このようにして、生部15と同期部16は、比較結果が所定の間隔より小さくなるまでステップS116〜S120の処理を繰り返す。
一方、ステップS119の判断の結果、比較結果が所定の間隔より小さい場合、表示部19は、再生部15が作成する表示用フレームセットと出力用フレームセットを取得する(ステップS121)。
表示部19は、取得した表示用フレームセットより映像を表示する。そして、放音部14は、取得した出力用フレームセットより音声を出力する(ステップS122)。
このようにして、カメラ群から取得した音声フレームと映像フレームを同期させて、リアルタイムで映像の表示と、音声の出力を行うことが可能となる。
表示部19は、取得した表示用フレームセットより映像を表示する。そして、放音部14は、取得した出力用フレームセットより音声を出力する(ステップS122)。
このようにして、カメラ群から取得した音声フレームと映像フレームを同期させて、リアルタイムで映像の表示と、音声の出力を行うことが可能となる。
図10は、音声記録部31に保存された音声フレームと、映像記録部32に保存された映像フレームを用いて、音声基準で表示・出力する処理の例を示す。
初めに、音声バッファ部11は、カメラ群から音声フレームを取得し(ステップS131)、音声フレームを音声記録部31に保存する(ステップS132)。そして、音声バッファ部11は、音声記録部31から音声フレームを読み出す(ステップS133)。
初めに、音声バッファ部11は、カメラ群から音声フレームを取得し(ステップS131)、音声フレームを音声記録部31に保存する(ステップS132)。そして、音声バッファ部11は、音声記録部31から音声フレームを読み出す(ステップS133)。
同様に、映像バッファ部12は、カメラ群から映像フレームを取得し(ステップS134)、映像フレームを映像記録部32に保存する(ステップS135)。そして、映像バッファ部12は、映像記録部32から映像フレームを読み出す(ステップS136)。
再生部15と同期部16は、同期ルール切替え部17から音声基準とした同期ルールを受取り、内部メモリに保存する(ステップS137,S138)。
そして、再生部15は、音声バッファ部11から音声フレームを取得する(ステップS140)。
そして、再生部15は、音声バッファ部11から音声フレームを取得する(ステップS140)。
同期部16は、映像バッファ部12から映像フレームを取得する(ステップS141)。そして、再生部15は、同期部16から映像フレームを取得する(ステップS142)。再生部15は、取得した音声フレームに付与されている音声フレーム用タイムスタンプと、映像フレームに付与されている映像フレーム用タイムスタンプを比較する(ステップS143)。
再生部15は、タイムスタンプの比較結果(音声フレーム用タイムスタンプと映像フレーム用タイムスタンプとの時間差)と、事前に定められている所定の時間間隔との比較を行なう(ステップS144)。
比較結果が所定の時間間隔以上である場合、同期部16は、再生部15からフレームの同期指示を取得する(ステップS145)。
同期部16は、同期指示を受けると、音声フレームのタイムスタンプと最も近いタイムスタンプを持つ映像フレームを映像バッファ部12から再取得し、再生部15に送信する。このようにして、生部15と同期部16は、比較結果が所定の間隔より小さくなるまでステップS141〜S145の処理を繰り返す。
同期部16は、同期指示を受けると、音声フレームのタイムスタンプと最も近いタイムスタンプを持つ映像フレームを映像バッファ部12から再取得し、再生部15に送信する。このようにして、生部15と同期部16は、比較結果が所定の間隔より小さくなるまでステップS141〜S145の処理を繰り返す。
一方、ステップS120の判断の結果、比較結果が所定の間隔より小さい場合、表示部19は、再生部15が作成する表示用フレームセットと出力用フレームセットを取得する(ステップS146)。
表示部19は、取得した表示用フレームセットより映像を表示する。そして、放音部14は、取得した出力用フレームセットより音声を出力する(ステップS147)。
このようにして、音声記録部31に保存した音声フレームと、映像記録部32に保存した映像フレームを同期させて、映像の表示と、音声の出力を行うことが可能となる。
表示部19は、取得した表示用フレームセットより映像を表示する。そして、放音部14は、取得した出力用フレームセットより音声を出力する(ステップS147)。
このようにして、音声記録部31に保存した音声フレームと、映像記録部32に保存した映像フレームを同期させて、映像の表示と、音声の出力を行うことが可能となる。
図11は、スケジュールごとに同期ルールを切替える処理の例を示す。
初めに、スケジュール設定部18は、スケジュール記録部20から、“開始時間”や“終了時間”、“同期ルール”等の内容を含むスケジュール設定情報を取得する(ステップS151)。
初めに、スケジュール設定部18は、スケジュール記録部20から、“開始時間”や“終了時間”、“同期ルール”等の内容を含むスケジュール設定情報を取得する(ステップS151)。
そして、スケジュール設定部18は、設定されたスケジュール(開始時間)になると、同期ルール切替え部17に同期ルールの変更を指示する。同期ルール切替え部17は、スケジュール設定部から同期ルールの変更指示を受け取る(ステップS152)。
そして、再生部15と同期部16は、同期ルール切替え部17より、変更された同期ルールを通知される(ステップS153、S154)。
このようにして、予め定めたスケジュールに沿って、同期ルールを、音声基準と映像基準とのうち、いずれかに切替えることが可能となる。
このようにして、予め定めたスケジュールに沿って、同期ルールを、音声基準と映像基準とのうち、いずれかに切替えることが可能となる。
以上説明した第1の実施形態例に係る監視システム10では、同期ルールを音声基準とした場合に、音声フレームに付与された音声フレーム用タイムスタンプ、映像フレームに付与された映像フレーム用タイムスタンプとを同期させた状態で、音声を出力し、映像を表示することができる。このため、音声フレームの連続性が維持された状態で、音声を出力することができるため、映像に対して音声ズレが生じないという効果がある。
また、再生部15は、音声基準の同期処理に加えて、映像基準の同期処理を行うことができる。このため、従来通り映像の連続性を重視して映像を表示することが可能であり、音声を重視しない環境下で撮像処理を行うのに適しているという効果がある。
また、同期部16は、音声基準の同期処理の場合、映像バッファ部12から映像フレームを取得し、作成した再生用映像フレームを再生部15に供給するとともに、映像基準の同期処理の場合、音声バッファ部11から音声フレームを取得し、作成した再生用音声フレームを再生部15に供給するようにしている。このように同期部16は、同期状態を常に監視し、適切な数の音声フレームと映像フレームを再生部15に供給するため、再生部15は同期ズレが生じる可能性が少なくなるという効果がある。
また、再生部15は、音声フレームと映像フレームが同期できない場合であって、音声基準の同期処理の場合、映像フレームの取得を指示する音声基準の同期指示を出力し、映像基準の同期処理の場合、音声フレームの取得を指示する映像基準の同期指示を同期部16に出力し、同期部16は、音声基準の同期指示を受け取った場合、音声バッファ部11より音声フレームを取得するとともに、映像基準の同期指示を受け取った場合、映像バッファ部12より映像フレームを取得するようにしている。このため、同期ズレが発生した場合であっても、同期ルールとなっていない音声フレーム又は映像フレームを取得し、速やかに同期させることによって、音声基準とした場合、音声の連続性を保って出力することができ、映像基準とした場合、映像の連続性を保って表示することができるという効果がある。
また、同期ルール切替え部17は、音声基準の同期処理と、映像基準の同期処理のうち、いずれかの同期処理に切替えて、切替えた同期処理を再生部15及び同期部16に通知するようにしている。このように1つの監視システムで音声基準と映像基準を容易に切替えることができるため、監視システムを設置する時間帯等によって同期ルールを柔軟に切替えることが可能であるという効果がある。
また、音声記録部31と映像記録部32と、を備えるため、多くの音声フレームと映像フレームとを保存できる。このように、監視者が長時間監視することが困難な時間帯(例えば、夜間監視)において、映像と音声を長時間保存し、後にまとめて表示・出力することができるという効果がある。
また、同期ルール切替え部17が切替える同期処理のスケジュールを所定日時で設定するスケジュール設定部18と、スケジュール設定部18が設定したスケジュールを保存するスケジュール記録部33と、を備えて、任意のスケジュールで同期ルールを切替えることを可能としている。このため、時間帯によって同期ルールを音声基準又は映像基準に容易に切替えることができ、必要とされる音声又は映像の連続性を確保できるという効果がある。
次に、本発明の第2の実施形態例について、図12と図13を参照して説明する。本実施の形態例においても、監視場所の映像による映像フレームを生成する撮像部と、映像フレームで示される監視場所の音声による音声フレームを生成する集音部を備えるカメラより、取得した音声フレームと映像フレームの同期をとり、映像を表示し、音声を出力する監視システム40に適用した例としてある。なお、図12において、既に第1の実施の形態で説明した図1に対応する部分には同一符号を付し、詳細な説明を省略する。
図12は、監視システム40の構成例を示す説明図である。
監視システム40は、映像・音声フレーム生成ネットワークカメラ1a〜1nから映像フレームと音声フレームを取得する管理サーバ5と、管理サーバ5を介して音声フレームと映像フレームを取得し、所定の処理を施して映像表示と音声出力を行う閲覧クライアント6とで構成される。管理サーバ5は、複数のコンピュータ装置5a〜5nを備える。管理サーバ5と閲覧クライアント6は、組み合わせることで監視装置として機能する。
監視システム40は、映像・音声フレーム生成ネットワークカメラ1a〜1nから映像フレームと音声フレームを取得する管理サーバ5と、管理サーバ5を介して音声フレームと映像フレームを取得し、所定の処理を施して映像表示と音声出力を行う閲覧クライアント6とで構成される。管理サーバ5は、複数のコンピュータ装置5a〜5nを備える。管理サーバ5と閲覧クライアント6は、組み合わせることで監視装置として機能する。
映像・音声フレーム生成ネットワークカメラ1a〜1cは、コンピュータ装置5aに映像フレームと音声フレームを供給する。同様に、映像・音声フレーム生成ネットワークカメラ1d〜1fは、コンピュータ装置5bに映像フレームと音声フレームを供給し、映像・音声フレーム生成ネットワークカメラ1l〜1nは、コンピュータ装置5nに映像フレームと音声フレームを供給する。
映像フレームと音声フレームは、コンピュータ装置5a〜5nに分散配置される。そして、管理サーバ5の制御機能により、分散配置された映像フレームと音声フレームが取り出され、閲覧クライアント6が所定の処理を施す。こうして、閲覧クライアント6は、映像を表示し、音声を出力することができる。
図13は、監視システム40の内部構成例を示すブロック図である。
監視システム40は、サーバ機能とクライアント機能を分割した管理サーバ5と閲覧用クライアント6で構成されたいわゆるクライアント/サーバシステムとしている。
管理サーバ5は、カメラ群から取得した音声フレームと映像フレームを保存する。
閲覧クライアント6は、管理サーバ5を介して音声フレームと映像フレームを取得し、所定の処理を施して映像表示と音声出力を行う。
監視システム40は、サーバ機能とクライアント機能を分割した管理サーバ5と閲覧用クライアント6で構成されたいわゆるクライアント/サーバシステムとしている。
管理サーバ5は、カメラ群から取得した音声フレームと映像フレームを保存する。
閲覧クライアント6は、管理サーバ5を介して音声フレームと映像フレームを取得し、所定の処理を施して映像表示と音声出力を行う。
管理サーバ5は、音声バッファ部11と、音声記録部31と、映像バッファ部12と、映像記録部32と、を備えている。
閲覧クライアント6は、放音部14と、再生部15と、同期部16と、同期ルール切替え部17と、スケジュール設定部18と、表示部19と、スケジュール記録部33と、を備えている。各部の処理は、既に説明した第1の実施の形態に係る監視システム10で行われる処理と同様である。
管理サーバ5は、カメラ群からネットワーク2aを介して音声フレームと映像フレームを取得し、保存する。そして、閲覧クライアント6は、管理サーバ5からネットワーク2bを介して音声フレームと映像フレームを取得し、所定の処理を施す。
閲覧クライアント6は、放音部14と、再生部15と、同期部16と、同期ルール切替え部17と、スケジュール設定部18と、表示部19と、スケジュール記録部33と、を備えている。各部の処理は、既に説明した第1の実施の形態に係る監視システム10で行われる処理と同様である。
管理サーバ5は、カメラ群からネットワーク2aを介して音声フレームと映像フレームを取得し、保存する。そして、閲覧クライアント6は、管理サーバ5からネットワーク2bを介して音声フレームと映像フレームを取得し、所定の処理を施す。
監視システム40においても、閲覧クライアント6は管理サーバ5から映像フレームと音声フレームを個別に取得できる。そして、閲覧クライアント6で音声フレームに付与された音声フレーム用タイムスタンプを基準として映像フレームとの同期処理を行い、映像表示と音声出力を行うことができる。また、閲覧クライアント6のみで、映像基準・音声基準の同期ルールの変更や、スケジュールの設定変更も行うことができる。
以上説明した第2の実施の形態に係る監視システム40の内部構成は、音声フレームと映像フレームを保存する管理サーバ5と、読み出した音声フレームと映像フレームに同期させて表示・出力可能な閲覧クライアント6に分けている。このように、監視システム40を構成する管理サーバ5と閲覧クライアント6は、分散配置することが可能である。ネットワーク2bに接続できる環境であれば、閲覧クライアント6は、管理サーバ5から離して設置することができる。このため、閲覧クライアント6は、大容量の記録部を備える必要がなく、例えばノート型の軽量なコンピュータ装置で機能を実現できるという効果がある。また、監視システム40の機能分散を図ることができるため、障害対応の強化を図ることができるという効果がある。
次に、本発明の第3の実施形態例について、図14を参照して説明する。本実施の形態例においても、監視場所の映像による映像フレームを生成する撮像部と、映像フレームで示される監視場所の音声による音声フレームを生成する集音部とを備えるカメラより、取得した音声フレームと映像フレームの同期をとり、映像を表示し、音声を出力する監視システム50に適用した例としてある。なお、図14において、既に第1の実施の形態で説明した図1に対応する部分には同一符号を付し、詳細な説明を省略する。
監視システム50は、カメラ群と、サーバ機能とクライアント機能を分割した管理クライアント7と閲覧用クライアント8で構成している。管理クライアント7と閲覧クライアント8は、組み合わせることで監視装置として機能する。
管理クライアント7は、カメラ群から取得した音声フレームと映像フレームを保存し、所定の処理を施して映像表示と音声出力を行う。
閲覧クライアント8は、管理クライアント7を介して音声フレームと映像フレームを取得し、所定の処理を施して映像表示と音声出力を行う。
管理クライアント7は、カメラ群から取得した音声フレームと映像フレームを保存し、所定の処理を施して映像表示と音声出力を行う。
閲覧クライアント8は、管理クライアント7を介して音声フレームと映像フレームを取得し、所定の処理を施して映像表示と音声出力を行う。
管理クライアント7は、音声バッファ部11と、音声記録部31と、映像バッファ部12と、映像記録部32と、放音部14と、再生部15と、同期部16と、同期ルール切替え部17と、スケジュール設定部18と、表示部19と、スケジュール記録部33と、を備えている。
閲覧クライアント8は、放音部14と、再生部15と、同期部16と、同期ルール切替え部17と、スケジュール設定部18と、表示部19と、スケジュール記録部33と、を備えている。各部の処理は、既に説明した第1の実施の形態に係る監視システム10で行われる処理と同様である。
閲覧クライアント8は、放音部14と、再生部15と、同期部16と、同期ルール切替え部17と、スケジュール設定部18と、表示部19と、スケジュール記録部33と、を備えている。各部の処理は、既に説明した第1の実施の形態に係る監視システム10で行われる処理と同様である。
管理クライアント7は、カメラ群からネットワーク2aを介して音声フレームと映像フレームを取得し、保存する。そして、管理クライアント7は、音声フレームと映像フレームに所定の処理を施して、管理クライアント7が備える放音部14で音声出力し、表示部19で映像を表示する。
同様に、閲覧クライアント8は、管理クライアント7から取得する音声フレームと映像フレームに所定の処理を施して、閲覧クライアント8が備える放音部14で音声出力し、表示部19で映像を表示する。
同様に、閲覧クライアント8は、管理クライアント7から取得する音声フレームと映像フレームに所定の処理を施して、閲覧クライアント8が備える放音部14で音声出力し、表示部19で映像を表示する。
監視システム50においても、閲覧クライアント8は管理クライアント7から映像フレームと音声フレームを個別に取得できる。そして、管理クライアント7と閲覧クライアント8は、音声フレームに付与された音声フレーム用タイムスタンプを基準として映像フレームとの同期処理を行い、映像表示と音声出力を行うことができる。また、映像基準・音声基準の同期ルールの変更や、スケジュールの設定変更も行うことができる。
以上説明した第3の実施の形態に係る監視システム50の内部構成は、音声フレームと映像フレームを保存し、読み出した音声フレームと映像フレームに所定の処理を施して、映像と音声を表示・出力可能な管理クライアント7と、管理クライアント7から取得した音声フレームと映像フレームに所定の処理を施して、映像と音声を表示・出力可能な閲覧クライアント8に分けている。このように、監視システム50を構成する管理クライアント7と閲覧クライアント8は、分散配置することが可能である。このため、閲覧クライアント8は、大容量の記録部を備える必要がなく、例えばノート型の軽量なコンピュータ装置で機能を実現できるという効果がある。また、監視システム50の機能分散を図ることができるため、障害対応の強化を図ることができるという効果がある。
以上説明した第1〜第3の実施の形態に係る監視システムでは、音声基準で映像を表示することが可能である。このため、出力する音声の連続性を保った状態で、映像を同期させて表示することが可能となり、音声の音飛びの発生を抑えることができるという効果がある。また、ネットワークの帯域負荷が高い場合、音声よりも情報量が多い映像のほうが欠落を生じやすい。既存の映像のタイムスタンプを基準とする同期システムでは、このような環境では映像の欠落に加えて、音声があるにもかかわらず再生音が飛んでしまうため、意味を成さない音声になってしまう可能性が高いが、音声基準の同期処理を行うため、再生した音声の音飛びが生じないという効果がある。また、監視システムをサーバ・クライアント構成とした場合、サーバとクライアント間の帯域は十分に確保されているが、サーバとカメラ間の帯域は不十分なことがよくある。しかし、このような環境下であっても、映像の欠落に対して、音声の連続性を保てるという効果がある。
ここで、時間帯によって異なる同期ルールとする場合の例について、図15を参照して説明する。
図15は、上述した第1〜第3の実施の形態例で説明した監視システムを設置する際に好適な環境の例を示す。
図15(a)は、映像・音声フレーム生成ネットワークカメラ1aで撮像した昼間の映像の例を示す。
図15(b)は、映像・音声フレーム生成ネットワークカメラ1aで撮像した夜間の映像の例を示す。
図15(b)に示すように、夜間や屋内などの光量が不足している環境下では、画像のフレームによる情報量が低下するため、相対的に音声の重要度が増す。このような環境下の場合、映像だけでは事象の判別ができず、音声が事象の判別に必要となる可能性が高い。このため、本例の監視システム10を用いることで、同期ルールが音声基準である場合に、音声を連続して得ることができ、事象の判別が容易になる。また、スケジュールに応じて同期ルールを、音声基準と映像基準のいずれかに切替えることが可能である。このため、昼間などの光量が十分で映像の重要度が高い場合は映像基準とし、夜間などの光量が不足し、映像の重要度が低い場合は音声基準とするといった同期ルールの切替え運用が可能になる。
図15は、上述した第1〜第3の実施の形態例で説明した監視システムを設置する際に好適な環境の例を示す。
図15(a)は、映像・音声フレーム生成ネットワークカメラ1aで撮像した昼間の映像の例を示す。
図15(b)は、映像・音声フレーム生成ネットワークカメラ1aで撮像した夜間の映像の例を示す。
図15(b)に示すように、夜間や屋内などの光量が不足している環境下では、画像のフレームによる情報量が低下するため、相対的に音声の重要度が増す。このような環境下の場合、映像だけでは事象の判別ができず、音声が事象の判別に必要となる可能性が高い。このため、本例の監視システム10を用いることで、同期ルールが音声基準である場合に、音声を連続して得ることができ、事象の判別が容易になる。また、スケジュールに応じて同期ルールを、音声基準と映像基準のいずれかに切替えることが可能である。このため、昼間などの光量が十分で映像の重要度が高い場合は映像基準とし、夜間などの光量が不足し、映像の重要度が低い場合は音声基準とするといった同期ルールの切替え運用が可能になる。
図15(c)は、映像・音声フレーム生成ネットワークカメラ1aで撮像した教室内での授業風景の例を示す。
教室内での授業は、視野内の物体の動作は少ないが、会話量が多い環境であるといえる。このため、映像よりも音声(会話)内容が重要な局面では、音声を途切れることなく再生できることが求められる。そこで、本例の監視システム10を用いて、同期ルールを音声基準とした状態で授業風景を監視することによって、音声を途切れることなく再生できるため、会話内容の判別が確実に行えるという効果がある。
教室内での授業は、視野内の物体の動作は少ないが、会話量が多い環境であるといえる。このため、映像よりも音声(会話)内容が重要な局面では、音声を途切れることなく再生できることが求められる。そこで、本例の監視システム10を用いて、同期ルールを音声基準とした状態で授業風景を監視することによって、音声を途切れることなく再生できるため、会話内容の判別が確実に行えるという効果がある。
なお、一般的に映像フレームよりも音声フレームのほうが単位時間当たりのフレーム数が多い。このため、複数のカメラから取得した映像の同期を取りたい場合、音声基準にして複数の映像フレームを同期させることができる。この結果、表示した複数の映像の時間ズレが少なくなるという効果が期待できる。
1a〜1n…映像・音声フレーム生成カメラ、2…ネットワーク、3…管理サーバ、4…映像・音声フレーム生成ネットワークデバイス、10…監視システム、11…音声バッファ部、12…映像バッファ部、14…放音部、15…再生部、16…同期部、17…同期ルール切替え部、18…スケジュール設定部、19…表示部、31…音声記録部、32…映像記録部、33…スケジュール記録部、40,50…監視システム
Claims (10)
- 監視カメラで撮像した監視映像による監視を行う監視装置において、
監視場所の映像による映像フレームを生成する撮像部から、前記映像フレームを取得する時刻を映像フレーム用タイムスタンプとして、前記映像フレームに付与する映像バッファ部と、
前記映像フレームで示される監視場所の音声による音声フレームを生成する集音部から、前記音声フレームを取得する時刻を音声フレーム用タイムスタンプとして、前記音声フレームに付与する音声バッファ部と、
前記音声バッファ部より取得する前記音声フレームと前記映像バッファ部より取得する前記映像フレームに対して、前記音声フレーム用タイムスタンプを基準として前記映像フレーム用タイムスタンプを同期させる音声基準の同期処理を行うとともに、同期させた前記映像フレームを組み立てた表示用フレームセットを、映像を表示する表示部に出力し、同期させた前記音声フレームを組み立てた出力用フレームセットを、音声を放音する放音部に出力する再生部と、
を備えたことを特徴とする
監視装置。 - 請求項1記載の監視装置において、
前記再生部は、前記映像フレーム用タイムスタンプを基準として前記音声フレーム用タイムスタンプを同期させる映像基準の同期処理を行うことを特徴とする
監視装置。 - 請求項2記載の監視装置において、
前記音声基準の同期処理の場合、前記映像バッファ部から前記映像フレームを取得し、作成した再生用映像フレームを前記再生部に供給するとともに、前記映像基準の同期処理の場合、前記音声バッファ部から前記音声フレームを取得し、作成した再生用音声フレームを前記再生部に供給する同期部を備えたことを特徴とする
監視装置。 - 請求項3記載の監視装置において、
前記再生部は、前記音声フレームと前記映像フレームが同期できない場合であって、前記音声基準の同期処理の場合、前記映像フレームの取得を指示する音声基準の同期指示を出力し、前記映像基準の同期処理の場合、前記音声フレームの取得を指示する映像基準の同期指示を前記同期部に出力し、
前記同期部は、前記音声基準の同期指示を受け取った場合、前記音声バッファ部より前記音声フレームを取得するとともに、前記映像基準の同期指示を受け取った場合、前記映像バッファ部より前記映像フレームを取得することを特徴とする
監視装置。 - 請求項4記載の監視装置において、
前記音声基準の同期処理と、前記映像基準の同期処理のうち、いずれかの同期処理に切替えて、切替えた同期処理を前記再生部及び同期部に通知する同期処理切替え部を備えたことを特徴とする
監視装置。 - 請求項5記載の監視装置において、
前記音声バッファ部によって前記音声フレームが保存され、保存された前記音声フレームが前記音声バッファ部によって読み出される音声記録部と、
前記映像バッファ部によって前記映像フレームが保存され、保存された前記映像フレームが前記映像バッファ部によって読み出される映像記録部と、を備えたことを特徴とする
監視装置。 - 請求項6記載の監視装置において、
前記同期処理切替え部が切替える同期処理のスケジュールを所定日時で設定するスケジュール設定部と、
前記スケジュール設定部が設定した前記スケジュールを保存するスケジュール記録部と、を備えたことを特徴とする
監視装置。 - 請求項7記載の監視装置において、
前記再生部は、前記音声基準の同期処理の場合、単一の前記音声フレームに対して、複数の前記映像フレームを同期させることを特徴とする
監視装置。 - 監視カメラで撮像した監視映像による監視を行う監視方法において、
監視場所の映像による映像フレームを生成する撮像部から、前記映像フレームを取得する時刻を映像フレーム用タイムスタンプとして、前記映像フレームに付与し、
前記映像フレームで示される監視場所の音声による音声フレームを生成する集音部から、前記音声フレームを取得する時刻を音声フレーム用タイムスタンプとして、前記音声フレームに付与し、
前記前記音声フレームと前記映像フレームに対して、前記音声フレーム用タイムスタンプを基準として前記映像フレーム用タイムスタンプを同期させる音声基準の同期処理を行うとともに、同期させた前記映像フレームを組み立てた表示用フレームセットを、映像を表示する表示部に出力し、同期させた前記音声フレームを組み立てた出力用フレームセットを、音声を放音する放音部に出力することを特徴とする
監視方法。 - 監視カメラで撮像した監視映像による監視を行う監視システムにおいて、
監視場所の映像による映像フレームを生成する撮像部と、
前記映像フレームで示される監視場所の音声による音声フレームを生成する集音部と、
前記音声フレームを取得する時刻を音声フレーム用タイムスタンプとして、前記音声フレームに付与する音声バッファ部と、
前記映像フレームを取得する時刻を映像フレーム用タイムスタンプとして、前記映像フレームに付与する映像バッファ部と、
前記音声バッファ部より取得する前記音声フレームと、前記映像バッファ部より取得する前記映像フレームに対して、前記音声フレーム用タイムスタンプを基準として前記映像フレーム用タイムスタンプを同期させる音声基準の同期処理を行うとともに、同期させた前記音声フレームを組み立てた出力用フレームセットを、音声を放音する放音部に出力し、同期させた前記映像フレームを組み立てた表示用フレームセットを、映像を表示する表示部に出力する再生部と、
を備えたことを特徴とする
監視システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007205944A JP2009044353A (ja) | 2007-08-07 | 2007-08-07 | 監視装置、監視方法及び監視システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007205944A JP2009044353A (ja) | 2007-08-07 | 2007-08-07 | 監視装置、監視方法及び監視システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009044353A true JP2009044353A (ja) | 2009-02-26 |
Family
ID=40444630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007205944A Pending JP2009044353A (ja) | 2007-08-07 | 2007-08-07 | 監視装置、監視方法及び監視システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009044353A (ja) |
-
2007
- 2007-08-07 JP JP2007205944A patent/JP2009044353A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9819973B2 (en) | Embedded appliance for multimedia capture | |
US20090231459A1 (en) | Camera direct dailies | |
US20220256231A1 (en) | Systems and methods for synchronizing data streams | |
JP4973381B2 (ja) | 監視装置、監視方法及び監視システム | |
JP2007028299A (ja) | 画像監視システム | |
JP2009111677A (ja) | 映像撮像制御システム | |
JP2003244683A (ja) | 遠隔監視システム及びプログラム | |
JP2015212876A (ja) | 映像再生システム | |
JP4946935B2 (ja) | 撮像装置 | |
JPH11205781A (ja) | 画像撮像録画装置 | |
JP2009044353A (ja) | 監視装置、監視方法及び監視システム | |
JP4658498B2 (ja) | 記録再生装置 | |
US20120105652A1 (en) | Network camera and method of operating storage device thereof | |
JP2011172128A (ja) | メタ情報付与システム、メタ情報付与装置、及びメタ情報付与方法 | |
JP2007329593A (ja) | 画像再生システム | |
JP2009282735A (ja) | 情報記録システム及び情報記録方法 | |
KR200434039Y1 (ko) | 중앙 집중형 감시 시스템 | |
JP2005033735A (ja) | 撮像装置及び方法、撮像システム、プログラム | |
JP2020198037A (ja) | 制御装置 | |
KR102625045B1 (ko) | 영상 편집 장치, 영상 편집 방법 및 컴퓨터 프로그램 | |
JP2004241834A (ja) | 動画像生成装置及び方法、動画像送信システム、プログラム並びに記録媒体 | |
TW201742450A (zh) | 差分畫像作成方法、畫像復原方法、差分檢測裝置、畫像復原裝置及監視方法 | |
JP2007025199A (ja) | 映像表示方法 | |
JP2006050435A (ja) | 監視システム | |
JP2008011433A (ja) | 撮像システム及びその撮像方法、並びに画像サーバ及びその画像処理方法 |