JP3962263B2 - Camera surveillance system - Google Patents

Camera surveillance system Download PDF

Info

Publication number
JP3962263B2
JP3962263B2 JP2002012827A JP2002012827A JP3962263B2 JP 3962263 B2 JP3962263 B2 JP 3962263B2 JP 2002012827 A JP2002012827 A JP 2002012827A JP 2002012827 A JP2002012827 A JP 2002012827A JP 3962263 B2 JP3962263 B2 JP 3962263B2
Authority
JP
Japan
Prior art keywords
video
monitoring
subject
encoder
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002012827A
Other languages
Japanese (ja)
Other versions
JP2003219405A (en
Inventor
直正 西村
靖 梅崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2002012827A priority Critical patent/JP3962263B2/en
Publication of JP2003219405A publication Critical patent/JP2003219405A/en
Application granted granted Critical
Publication of JP3962263B2 publication Critical patent/JP3962263B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Telephonic Communication Services (AREA)

Description

【0001】
【発明の属する技術分野】
本発明はカメラ監視システムに関し、更に詳しくはカメラの映像信号を符号化して送信する複数のエンコーダ装置と、各エンコーダ装置からの映像データを収集・再生して画面に表示する監視装置とがネットワークを介して接続するカメラ監視システムに関する。
【0002】
【従来の技術】
図8は従来技術を説明する図で、従来のカメラ監視システムのネットワーク構成を示している。図において、VCは監視用のビデオカメラ、ENCはMPEG2方式による映像信号(音声信号を含む)のエンコーダ装置、100はTCP/IP等によるネットワーク(NW)、80は各エンコーダ装置に接続する監視映像の管理サーバ、90は映像の監視卓(モニタ)装置、81はカメラ(監視映像)の管理テーブルである。
【0003】
カメラ監視の概要を述べると、例えばカメラVC1は森林を監視するA地点に設置され、エンコーダ装置ENC1は被写体(森林)の映像信号を符号(パケット)化し、管理サーバ80に送信する。カメラVC2は山岳を監視するB地点に設置され、エンコーダ装置ENC2は同様にして被写体(山岳)の映像パケットを管理サーバ80に送信する。カメラVC3はビルの一角を監視するC地点−aに設置され、エンコーダ装置ENC3は被写体(ビルの一角)の映像パケットを管理サーバ80に送信する。これら、各地点からの監視映像は監視センタのモニタ90に表示されると共に、監視者bは、予め管理テーブル81に登録されたカメラの設置位置情報(A,B,C地点−a等)に基づき被写体映像の特定(識別/把握)を行う。
【0004】
従来、このような管理テーブル81の作成及び更新は監視センタの人手により行っていた。例えば、今、ビルの一角を監視するC地点−bに新たにカメラVC4を設置する場合は、現地の工事担当者aがカメラVC4やエンコーダ装置ENC4の設置後、別途携帯電話MS2等を使用して監視者bに電話をし、被写体のテスト映像と共にカメラの設置位置情報「C地点−b」を電話で報告する。報告を受けた監視者bは、被写体のテスト映像を確認すると共に、管理テーブル81におけるエンコーダ装置ENC4のIPアドレス(AD=004)の対応に予め記録されたカメラの設置位置情報「C地点−b」を確認する。又はこの時点で管理テーブル81にカメラの設置位置情報「C地点−b」を記録する。
【0005】
【発明が解決しようとする課題】
しかし、上記従来の如くカメラの設置位置情報(住所,名称等)を記録する方式であると、カメラの設置位置情報と被写体(監視対象)の映像とは必ずしも一致しないため、監視者bには被写体映像から監視対象を特定(連想)するのが困難なものとなっていた。
【0006】
また、上記従来の如くカメラの設置位置情報を監視者b等の手入力で記録する方式であると、監視対象(カメラの設置台数)が少ない場合は良いが、監視対象が増すと、カメラの設置位置情報に付いても最小限の情報(簡単な地名,名称等)を入力するので精一杯となり、監視対象を特定するに十分な識別情報(即ち、被写体の映像は何処の地点のどういった映像なのかを示す情報)を記録するのが極めて困難であった。
【0007】
また、監視対象は、増設のみならず、変更もあるため、こうして、監視者bにとっては、管理テーブル81の作成維持管理に必要な作業が膨大なものとなるばかりか、監視作業(監視映像と監視対象とを直感的に結びつける作業)の効率が著しく低下していた。
【0008】
本発明は上記従来技術の問題点に鑑みなされたもので、その目的とする所は、被写体(監視対象)映像の特定と認識及びその維持管理が容易なカメラ監視システムを提供することにある。
【0009】
【課題を解決するための手段】
上記の課題は例えば図1の構成により解決される。即ち、本発明(1)のカメラ監視システムは、カメラ11の映像信号を符号化して送信する複数のエンコーダ装置20と、各エンコーダ装置からの映像データを収集・再生して画面に表示する監視装置70とがネットワーク100を介して接続するカメラ監視システムにおいて、エンコーダ装置20aは、被写体の映像データと共に該被写体映像を特定するためにマイク13から入力された音声信号を符号化して監視装置70に送信し、監視装置70は、エンコーダ装置20aから送られた映像データを画面51に表示すると共に、該被写体映像を特定するための音声データを再生してスピーカ53に出力するものである。
【0010】
本発明(1)によれば、被写体(監視対象)映像を特定する情報を音声入力するので、被写体の地名情報のような簡単な情報のみならず、被写体映像そのものを特徴付けるより詳細な特定情報を容易に音声入力できる。また、被写体映像の特定情報はエンコーダ装置の側で音声入力するので、現場の工事担当者等が被写体映像を特定する適切な識別情報(被写体映像は何処の地点のどういった映像なのかを示す情報)を容易に音声入力できる。また監視者は、被写体(監視対象)映像を画面51で見るのと同時に、その特定(説明)情報を音声で聴けるので、被写体映像と監視対象との関連を直感的に把握できる。
【0011】
好ましくは、エンコーダ装置20dは、被写体の映像データと共に該被写体映像を特定するために外部機器15から入力されたテキストデータを監視装置70に送信し、監視装置70は、エンコーダ装置20dから送られた映像データとテキストデータとを関連付けて画面51に表示するものである。
【0012】
この態様では、被写体(監視対象)映像を特定するテキスト情報をエンコーダ装置の側で外部機器により入力するので、現場の工事担当者等が予め適切な情報を作成し、容易に入力できる。また監視者は、被写体(監視対象)映像を画面51で見るのと同時に、その特定(説明)情報をテキスト情報で見れるので、被写体映像と監視対象との関連を容易に把握できる。
【0013】
本発明()では、上記本発明(1)において、エンコーダ装置20aは、被写体映像を特定するための音声情報を記憶する記憶手段を備え、監視装置70からの要求に応じて前記記憶手段の音声情報を監視装置70に送信するものである。
【0014】
本発明()によれば、エンコーダ装置は被写体映像を特定するための音声情報を記憶する記憶手段を備えるため、現場の工事担当者等は独自のペース(作業の進捗状況)で被写体映像の特定(識別)情報を作成・記憶できると共に、監視者はその記憶情報を後の任意の時点に利用できる。
【0015】
【発明の実施の形態】
以下、添付図面に従って本発明に好適なる実施の形態を詳細に説明する。なお、全図を通して同一符号は同一又は相当部分を示すものとする。図2〜図5は実施の形態によるカメラ監視システムのブロック図(1)〜(4)で、異なるタイプの複数のエンコーダ装置20a〜20dと、これらに共通の監視装置70とがネットワーク100を介して接続する場合を示している。
【0016】
図2は一例のエンコーダ装置20aを示す図で、監視装置70に送信するための被写体映像を特定(説明)する音声識別情報であって、MPEGフォーマットに多重する前のものをメモリ24に蓄積する場合を示している。図において、11は被写体(監視対象)を撮影するビデオカメラ(VC)、12は被写体周辺の音響(以下、音声と言う)信号を収音するためのマイク(MIC)、20aはエンコーダ装置、13はエンコーダ装置20aに設けられた音声入力用のマイク(MIC)、14は工事担当者aが操作をするマニュアルスイッチ(SW)、21はカメラ11の映像信号をA/D変換してMPEG2方式によるビデオデータストリームVESに変換(符号化)するビデオエンコーダ(VEC)、22はマイク12/13の音声信号をA/D変換してMPEG2方式による音声データストリームAESに変換する音声エンコーダ(AEC)、23はエンコーダ装置20aの主制御・処理を行うCPU(制御プログラム等を記憶した主メモリを含む)、24はマイク13から入力された音声信号の音声データストリームAESを一時的に記憶するメモリ(MEM)、25,26はセレクタ(SEL)、27はビデオデータストリームVES、音声データストリームAES及び情報データストリームDESをMPEG2フォーマットに従い多重してパケットストリームを生成する多重部、28はパケット通信を行う通信制御部(COM)、29はCPU23の共通バス、そして、100はTCP/IP方式によるネットワーク(NW)である。
【0017】
更に、70は中央の監視装置(本体)、71は監視装置70の主制御・処理を行うCPU(制御プログラム等を記憶した主メモリを含む)、72は2次記憶装置としてのハードディスク装置(HDD)、73はCPU71の共通バス、62はパケット通信を行う通信制御部(COM)、60はエンコーダ装置20aからの受信パケット(ストリーム)をMPEG2方式に従って分離・復号・再生するデコーダ部(DEC)、63は受信ストリームの分離部、64は分離されたビデオデータストリームVESを復号・再生して映像信号に変換するビデオデコーダ(VDC)、65は音声データストリームAESを復号・再生して音声信号に変換する音声デコーダ(ADC)、66はテキストデータを対応する音声信号に変換(合成)する音声合成器(CDC)、67,68はアナログ信号を合成する信号合成器、51は監視映像を表示するモニタ、52は監視者bが操作をするキーボード、53は音声信号を出力するスピーカ(SP)である。
【0018】
挿入図(a)にCPU71が管理・参照する被写体(管理対象)映像の管理テーブル74を示す。図において、「AD」はネットワークアドレス(IPアドレス)を表し、監視装置70に接続する3つのエンコーダ装置(エンコーダ装置20aと同一タイプのもの)がIPアドレス001〜003に各対応していることを示す。また「識別情報」はIPアドレス001〜003の各対応に被写体(監視対象)映像を特定するための音声識別情報A〜Cが格納されている場所を表す。
【0019】
なお、後述するが、この音声識別情報A〜Cは、必要な度にエンコーダ装置IPA001〜IPA003から直接入手する場合と、予め入手した音声識別情報A〜Cを監視装置70のHDD72に格納しておき、必要な度にHDD72から読み出す場合とが考えられる。前者の場合は各エンコーダ装置IPA001〜IPA003が音声識別情報A〜Cの所在場所であり、また後者の場合は「識別情報」の各欄に音声識別情報A〜Cの格納アドレスが記録される。また、図示しないが、各エンコーダ装置の監視映像(映像チャネル)とIPアドレス001〜003とが1対1に対応付けられている。
【0020】
次に図7に従ってMPEG2−TS(トランスポートストリーム)のフォーマットを説明しておく。図において、ES(Elementary Stream)は、エンコードされた映像,音声,情報の各データ列からなり、コンテンツ(番組)の構成要素である。PES(Packetized Elementary Stream)は、ESを可変長ブロックに区切り、これにヘッダを付してパケット化したものである。更に,TSP(Transport Stream Packet)は、PESを固定長ブロックに区切り、ヘッダを付したものである。そして、TS(Transport Stream)は、TSパケット(188バイト固定)を連続させたものであり、複数のプログラムを構成する。係る規格の下で、エンコーダ装置20aでは映像,音声,データの各ESをTSに変換して送信し、監視装置70ではTSを映像,音声,データの各ESに変換してモニタ51,スピーカ53,CPU71に出力する。
【0021】
図2に戻り、次に監視カメラの設置及び該カメラを使用した被写体映像監視の動作を説明する。工事担当者aは、カメラ11の設置作業を終了すると、エンコーダ装置20aに電源投入する。これによりカメラ11の映像信号はビデオエンコーダ21でビデオデータストリームVESに変換され、多重部27で多重される。また、この状態ではスイッチ14がOFFにされており、これによりCPU23はセレクタ25をマイク12の側に接続すると共に、セレクタ26を音声エンコーダ22の側に接続する。これによりマイク12からの監視音声信号は音声エンコーダ22で音声データストリームAESに変換され、多重部27で多重され、こうして監視映像と監視音声のTSが監視装置70に送られる。
【0022】
監視装置70において、受信TSは分離部63で分離され、その内のビデオデータストリームVESはビデオデコーダ64で復号・再生され、モニタ51に表示される。また音声データストリームAESは音声デコーダ65で復号・再生され、スピーカ53に出力される。これにより監視者bは被写体(監視対象)の映像及び音声を監視できる状態となる。
【0023】
一方、現場では引き続き工事担当者aが、被写体映像の識別(説明)情報を入力すべくスイッチ14を押す(ONにする)。すると、その状態がCPU23により検出され、該CPU23はセレクタ25をマイク13の側に接続すると共に、音声エンコーダ22の出力の音声データストリームAESをメモリ24に格納するように制御する。この状態で、工事担当者aが被写体映像の識別情報(被写体の場所,名称,撮影方向,撮影アングル等)を音声入力すると、該音声信号は音声エンコーダ22で符号化されて後、一旦メモリ24に格納される。このとき、監視マイク12からの音声信号は一時的に途切れるが、カメラ11の映像信号は引き続き監視装置70の側に送られている。
【0024】
なお、別途にマイク13を設けないで、被写体映像の説明をカメラ11に附属する監視マイク12から音声入力しても良い。この場合でも、音声入力と同時にスイッチ13を押すことで、CPU23はその区間の音声入力を被写体映像の説明入力としてメモリ24に格納処理できる。但し、カメラ11に附属するような監視マイク12は、カメラ11と共に、一般には、工事担当者aが使用しにくい場所に設置されるのが通常であるため、好ましくは別途エンコーダ装置20aの側にメッセージ入力用のマイク13を設ける。
【0025】
次に工事担当者aは上記音声入力を完了すると、スイッチ14を離す(OFFにする)。CPU23は、この状態を検出したことにより、セレクタ25をマイク12の側に接続すると共に、音声エンコーダ22の出力の音声データストリームAESを多重部27に出力する。これにより再びマイク12からの監視音声信号が監視装置70に送られる。
【0026】
次に被写体(監視対象)映像に対する音声識別情報の蓄積・再生処理をフローで説明する。図6は音声識別情報の蓄積・再生処理のシーケンス図であり、図6(A)は予め被写体映像の音声識別情報をエンコーダ装置20の側に保持しておいて、監視装置70からの要求がある度に音声識別情報を伝送する場合を示している。図において、ステップS11では予め工事担当者aがマイク13より被写体映像の音声識別情報を入力する。ステップS12では入力の音声識別情報を音声データストリームAESに変換してメモリ24に格納する。ステップS13ではCPU23が音声識別情報を蓄積した旨の情報を例えばMPEGフォーマットのプライベートデータ領域(DES)に格納して監視装置70に通知する。なお、この通知は、別チャネルのストリームを利用して、又は別途に形成したパケットを利用して行っても良い。
【0027】
監視装置70において、監視者bは、表示画面上で選択した被写体映像を見ながら、もしこの被写体の識別情報を知りたい場合は、所定のアイコンをクリックする。即ち、選択された被写体映像を特定するための音声信号の出力を付勢する。CPU71は、このアイコンのクリックに伴う要求指示を受けたことにより、ステップS14では管理テーブル74の上記選択中の監視映像に対応するエンコーダ装置20aのIPアドレス(例えばIPA=001)を使用して、音声識別情報の要求パケットを生成し、ネットワーク100に送信する。エンコーダ装置20a(IPA=001)は、この要求パケットを受け付けたことにより、ステップS15ではメモリ24から被写体映像の音声識別情報を読み出し、これをMPEGフォーマットの音声データ領域(AES)に格納して監視装置70に送信する。これを受けた監視装置70では、受信した音声識別情報が分離部63及び音声デコーダ65を介して分離・復号・再生され,スピーカ53に出力される。
【0028】
図6(B)は被写体映像の音声識別情報を予め監視装置70の側に伝送・保持しておいて、監視者bからの要求がある度にスピーカ53に出力する場合を示している。この場合は、図示しないが、CPU23が音声識別情報を蓄積した旨の情報を監視装置70に通知すると、監視装置70からは速やかに音声識別情報の要求パケットが送信され、そのステップS15ではエンコーダ装置20aが被写体映像の音声識別情報をMPEGフォーマットのプライベートデータ領域(DES)に格納して監視装置70に送信する。監視装置70は、ステップS21で受信した音声識別情報をメモリ(HDD72)の当該エンコーダ装置20aのIPアドレスに対応する格納アドレスに蓄積しておく。
【0029】
その後、監視者bは、表示画面の被写体映像を見ながら、もしこの被写体の識別情報を知りたい場合は、所定のアイコンをクリックする。監視装置70では、このアイコンクリックに伴う要求指示を受けたことにより、ステップS22では上記HDD72に蓄積しておいた音声識別情報が音声デコーダ65を介して復号・再生され,スピーカ53に出力される。
【0030】
図3は他の例のエンコーダ装置20bを示す図で、監視装置70に送信するための被写体映像を特定(説明)する音声識別情報であって、MPEGフォーマットに多重した後のものをメモリ24に蓄積する場合を示している。
【0031】
なお、以下に述べる各タイプのエンコーダ装置20b〜20dの説明では、その監視装置70の構成については図2〜図5を通して同一(共通)である。また、上記図6で述べたと同様の処理シーケンスを適用可能である。
【0032】
図3において、今、工事担当者aがスイッチ14をOFF(通常)にしている場合は、CPU23はセレクタ25を監視マイク12の側に接続し、かつセレクタ26を多重部27の側に接続すると共に、この場合の多重部27は、カメラ11のビデオデータストリームVESと監視マイク12の音声データストリームAESとをMPEGフォーマットに多重して監視装置70に伝送する。従って、この場合の監視者bは、監視中の被写体映像とその周辺音声とを同時にモニタできる。
【0033】
次に工事担当者aがスイッチ14をONにすると、CPU23はセレクタ25をマイク13の側に接続し、かつセレクタ26を多重部27の側に接続する。また、この場合の多重部27は、カメラ11のビデオデータストリームVESとマイク13の説明音声データストリームAESとをMPEGフォーマットに多重して監視装置70に伝送すると共に、同一のコンテンツ(監視映像及び説明音声)をメモリ24にも蓄積する。従って、この場合の監視者bは、被写体映像とその説明音声を同時にモニタできる。また、その後は、任意の時点にこの被写体映像とその説明音声とをメモリ24から読み出して監視装置70でモニタ(確認)できる。又はこの被写体映像とその説明音声とを予め監視装置70のメモリ72に転送・蓄積しておき、これを任意の時点に読み出してモニタ(確認)できる。挿入図(a)に管理テーブル74を示す。この場合の「識別情報」の欄には被写体のサンプル映像とその説明音声とからなるストリームデータの格納番地が記録される。
【0034】
この例のエンコーダ装置20bでは、スイッチ14が押された時点の被写体映像(テスト/サンプル映像)と共にその説明音声を多重後にメモリ24に記憶するため、工事担当者aはこの説明音声を入力する際には、被写体のサンプル映像として被写体(監視対象)を特定するのに適した被写体を選択できる利点がある。
【0035】
図4は更に他の例のエンコーダ装置20cを示す図で、監視用の被写体映像及びその周辺音声と、監視対象特定用の被写体テスト映像及びその説明音声とを別ストリーム(別TS)で伝送する場合を示している。被写体映像及びその説明音声をメモリ24に記憶するまでは上記図3で述べたものと同様でよい。この例では、メモリ24に格納された被写体のサンプル映像及びその説明音声は、監視用映像とは別ストリームで送られるため、監視者bは任意の時点で被写体のサンプル映像及びその説明音声をモニタできる。
【0036】
図5は更に他の例のエンコーダ装置20dを示す図で、被写体映像及びその周辺音声と共に、被写体映像を特定(説明)するためのテキストデータ(DES)を伝送する場合を示している。図において、30はRS−232C等による周辺インタフェース(PIF)であり、CPU23はPIF30を介して外部のノート型PC15(又は専用端末装置)と接続する。
【0037】
この場合の工事担当者aは、被写体映像の説明データをノート型PC15から入力する。この説明データは一旦CPU23に蓄積され、その旨が監視装置70に通知される。その後、監視装置70からの要求があると、この説明データはMPEGフォーマットのプライベートデータ領域(DES)に多重されて監視装置70に転送される。監視装置70では、通常の監視映像(監視音声を含む)をモニタすると共に,伝送された説明用のテキストデータをCDC66で対応する文字パターンデータに変換し、これを信号合成器67で被写体の映像信号に合成する。この場合の監視者bは、監視映像に合成された説明文字を読むことで、被写体映像を容易に認識(特定)できる。
【0038】
又は、受信したテキストデータを音声合成器66で音声信号に変換し、これを信号合成器68で被写体の監視音声信号に合成する。この場合の監視者bは、監視音声に合成された説明音声を聞くことで、被写体映像を容易に認識(特定)できる。なお、上記エンコーダ装置20dから受信した被写体映像の説明データを予めHDD72に記憶しておき、そのアクセスアドレスを管理テーブル74で管理しても良い。挿入図(a)に管理テーブル74を示す。この場合の「識別情報」の欄には被写体の説明データの格納番地が記録される。
【0039】
なお、上記実施の形態では異なるタイプのエンコーダ装置20a〜20dに接続する共通の監視装置70を示したが、これに限らない。いずれかのタイプのエンコーダ装置に専用の監視装置を使用してカメラ監視システムを構成しても良い。
【0040】
また、上記本発明に好適なる実施の形態を述べたが、本発明思想を逸脱しない範囲内で各部の構成、制御、処理及びこれらの組み合わせの様々な変更が行えることは言うまでも無い。
【0041】
(付記1) カメラの映像信号を符号化して送信する複数のエンコーダ装置と、各エンコーダ装置からの映像データを収集・再生して画面に表示する監視装置とがネットワークを介して接続するカメラ監視システムにおいて、エンコーダ装置は、被写体の映像データと共に該被写体映像を特定するためにマイクから入力された音声信号を符号化して監視装置に送信し、監視装置は、エンコーダ装置から送られた映像データを画面に表示すると共に、該被写体映像を特定するための音声データを再生してスピーカに出力することを特徴とするカメラ監視システム。
【0042】
(付記2) カメラの映像信号を符号化して送信する複数のエンコーダ装置と、各エンコーダ装置からの映像データを収集・再生して画面に表示する監視装置とがネットワークを介して接続するカメラ監視システムにおいて、エンコーダ装置は、被写体の映像データと共に該被写体映像を特定するために外部機器から入力されたテキストデータを監視装置に送信し、監視装置は、エンコーダ装置から送られた映像データとテキストデータとを関連付けて画面に表示することを特徴とするカメラ監視システム。
【0043】
(付記3) エンコーダ装置は、被写体映像を特定するための音声情報を記憶する記憶手段を備え、監視装置からの要求に応じて前記記憶手段の音声情報を監視装置に送信することを特徴とする付記1に記載のカメラ監視システム。
【0044】
(付記4) カメラの映像信号を符号化して送信する複数のエンコーダ装置と、各エンコーダ装置からの映像データを収集・再生して画面に表示する監視装置とがネットワークを介して接続するカメラ監視システムの前記エンコーダ装置において、マニュアル操作可能なスイッチと、該スイッチが付勢された区間のマイクからの音声信号を符号化してメモリに記憶させる制御手段とを備え、制御手段は、監視装置からの要求に従って前記メモリに記憶された音声情報を監視装置に送信することを特徴とするエンコーダ装置。
【0045】
(付記5) カメラの映像信号を符号化して送信する複数のエンコーダ装置と、各エンコーダ装置からの映像データを収集・再生して画面に表示する監視装置とがネットワークを介して接続するカメラ監視システムの前記監視装置において、各エンコーダ装置からの被写体映像を選択する手段と、選択された被写体映像を特定するための音声信号の出力を付勢/消勢する手段と、音声信号の出力が付勢されているときに選択された被写体映像につき、該被写体映像を特定する音声データであって、対応するエンコーダ装置で作成されたもの、を再生してスピーカに出力する制御手段とを備えることを特徴とする監視装置。
【0046】
【発明の効果】
以上述べた如く本発明によれば、被写体(監視対象)映像の説明を現地(エンコーダ装置)で入力する簡単な構成により、被写体(監視対象)映像の特定と認識及びその維持管理が極めて容易となる。
【図面の簡単な説明】
【図1】本発明の原理を説明する図である。
【図2】 実施の形態によるカメラ監視システムのブロック図(1)である。
【図3】 実施の形態によるカメラ監視システムのブロック図(2)である。
【図4】 実施の形態によるカメラ監視システムのブロック図(3)である。
【図5】 実施の形態によるカメラ監視システムのブロック図(4)である。
【図6】 実施の形態による音声識別情報の蓄積・再生処理のシーケンス図である。
【図7】 MPEG2−TSを説明する図である。
【図8】 従来技術を説明する図である。
【符号の説明】
11 ビデオカメラ(VC)
12,13 マイク(MIC)
14 マニュアルスイッチ(SW)
15 ノート型PC
20 エンコーダ装置
21 ビデオエンコーダ(VEC)
22 音声エンコーダ(AEC)
23 CPU
24 メモリ(MEM)
25,26 セレクタ(SEL)
27 多重部
28 通信制御部(COM)
29 共通バス
30 周辺インタフェース(PIF)
51 表示モニタ
52 キーボード
53 スピーカ(SP)
60 デコーダ部(DEC)
62 通信制御部(COM)
63 分離部
64 ビデオデコーダ(VDC)
65 音声デコーダ(ADC)
66 音声合成器(CDC)
67,68 信号合成器
70 監視装置(本体)
71 CPU
72 ハードディスク装置(HDD)
73 共通バス
100 ネットワーク(NW)
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a camera monitoring system, and more specifically, a plurality of encoder devices that encode and transmit a video signal of a camera, and a monitoring device that collects, reproduces, and displays video data from each encoder device on a screen. The present invention relates to a camera monitoring system connected via
[0002]
[Prior art]
FIG. 8 is a diagram for explaining the prior art, and shows a network configuration of a conventional camera monitoring system. In the figure, VC is a video camera for monitoring, ENC is an encoder device for video signals (including audio signals) according to the MPEG2 system, 100 is a network (NW) based on TCP / IP, and 80 is a monitoring video connected to each encoder device. , 90 is a video monitoring console (monitor) device, and 81 is a camera (monitoring video) management table.
[0003]
The outline of camera monitoring will be described. For example, the camera VC1 is installed at a point A where the forest is monitored, and the encoder device ENC1 encodes (packets) the video signal of the subject (forest) and transmits it to the management server 80. The camera VC2 is installed at a point B where the mountain is monitored, and the encoder device ENC2 similarly transmits a video packet of the subject (mountain) to the management server 80. The camera VC3 is installed at a point C-a that monitors a corner of the building, and the encoder device ENC3 transmits a video packet of the subject (a corner of the building) to the management server 80. The monitoring video from each point is displayed on the monitor 90 of the monitoring center, and the monitor b is in the camera installation position information (A, B, C point-a, etc.) registered in the management table 81 in advance. Based on this, the subject video is identified (identified / understood).
[0004]
Conventionally, the management table 81 is created and updated manually by a monitoring center. For example, when a camera VC4 is newly installed at a point C-b for monitoring a corner of a building, a local construction worker a uses a separate mobile phone MS2 after installing the camera VC4 and the encoder device ENC4. Then, the monitor b is called, and the camera installation position information “C point-b” is reported by phone along with the test video of the subject. Upon receiving the report, the supervisor b confirms the test video of the subject, and installs the camera installation position information “C point-b” recorded in advance in correspondence with the IP address (AD = 004) of the encoder device ENC4 in the management table 81. Confirm. Alternatively, the camera installation position information “C point-b” is recorded in the management table 81 at this time.
[0005]
[Problems to be solved by the invention]
However, in the conventional method of recording the camera installation position information (address, name, etc.), the camera installation position information does not necessarily match the video of the subject (monitoring target). It has been difficult to identify (associate) the monitoring target from the subject video.
[0006]
In addition, when the camera installation position information is recorded manually by the supervisor b or the like as in the conventional case, the number of monitoring targets (the number of cameras installed) is good, but when the number of monitoring targets increases, Since the minimum information (simple place name, name, etc.) is entered even with the installation position information, it is exhaustive and sufficient identification information to identify the monitoring target (that is, where the video of the subject is, It was extremely difficult to record the information indicating whether the video was a video.
[0007]
In addition, since the monitoring target is not only expanded but also changed, in this way, the work required for the creation and maintenance of the management table 81 becomes enormous for the monitor b, and monitoring work (monitoring video and The efficiency of the task of intuitively linking the monitoring target) was significantly reduced.
[0008]
The present invention has been made in view of the above-described problems of the prior art, and an object of the present invention is to provide a camera monitoring system that can easily identify and recognize a subject (monitoring target) video and maintain it.
[0009]
[Means for Solving the Problems]
The above problem is solved by the configuration of FIG. That is, the camera monitoring system of the present invention (1) includes a plurality of encoder devices 20 that encode and transmit video signals of the camera 11, and a monitoring device that collects and reproduces video data from each encoder device and displays it on a screen. In the camera monitoring system connected to 70 via the network 100, the encoder device 20a encodes the audio signal input from the microphone 13 to identify the subject video together with the subject video data, and transmits the encoded audio signal to the monitoring device 70. Then, the monitoring device 70 displays the video data sent from the encoder device 20a on the screen 51, reproduces the audio data for specifying the subject video, and outputs it to the speaker 53.
[0010]
According to the present invention (1), since the information for specifying the subject (monitoring target) video is inputted by voice, not only simple information such as the place name information of the subject but also more detailed specifying information characterizing the subject video itself. Easy voice input. In addition, since the subject video identification information is input by voice on the encoder device side, appropriate identification information for identifying the subject video by the construction worker in the field (indicating what kind of video the subject video is at which point) Information) can be input easily. In addition, since the monitor can view the subject (monitoring target) video on the screen 51 and listen to the specific (explanatory) information by voice, the monitor can intuitively grasp the relationship between the subject video and the monitoring target.
[0011]
Preferably, The encoder device 20d transmits text data input from the external device 15 to the subject device together with the subject video data to the monitoring device 70, and the monitoring device 70 receives the video data sent from the encoder device 20d. It is displayed on the screen 51 in association with text data.
[0012]
In this aspect Since the text information for specifying the subject (monitoring target) video is input by an external device on the encoder device side, a construction worker in the field can create appropriate information in advance and input it easily. Further, since the monitor can view the subject (monitoring target) video on the screen 51 and the specific (explanatory) information can be viewed as text information, the monitor can easily grasp the relationship between the subject video and the monitoring target.
[0013]
The present invention ( 2 ) In the present invention (1), the encoder device 20a includes storage means for storing audio information for specifying the subject video, and monitors the audio information in the storage means in response to a request from the monitoring device 70. It is transmitted to the device 70.
[0014]
The present invention ( 2 ), The encoder device includes storage means for storing audio information for specifying the subject video, so that the construction worker in the field specifies (identifies) the subject video at a unique pace (work progress status). Information can be created and stored, and the monitor can use the stored information at any later time.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. Note that the same reference numerals denote the same or corresponding parts throughout the drawings. 2 to 5 are block diagrams (1) to (4) of the camera monitoring system according to the embodiment. A plurality of encoder devices 20a to 20d of different types and a monitoring device 70 common to these encoder devices 20a to 20d are connected via a network 100. This shows the case of connection.
[0016]
FIG. 2 is a diagram showing an example of the encoder device 20a. The audio identification information for specifying (explaining) the subject video to be transmitted to the monitoring device 70 is stored in the memory 24 before being multiplexed into the MPEG format. Shows the case. In the figure, 11 is a video camera (VC) for photographing a subject (monitoring target), 12 is a microphone (MIC) for picking up sound (hereinafter referred to as audio) around the subject, 20a is an encoder device, 13 Is an audio input microphone (MIC) provided in the encoder device 20a, 14 is a manual switch (SW) operated by a construction worker a, and 21 is an MPEG2 system by A / D converting the video signal of the camera 11 A video encoder (VEC) 22 converts (encodes) the video data stream into a video data stream VES. An audio encoder (AEC) 22 converts the audio signal of the microphone 12/13 into an audio data stream AES according to the MPEG2 method by converting the audio signal from the microphone 12/13. Is a CPU (including a main memory storing a control program) for performing main control / processing of the encoder device 20a, 24 A memory (MEM) that temporarily stores an audio data stream AES of an audio signal input from the microphone 13, 25 and 26 are selectors (SEL), 27 is a video data stream VES, an audio data stream AES, and an information data stream DES. A multiplexing unit that multiplexes in accordance with the MPEG2 format to generate a packet stream, 28 is a communication control unit (COM) that performs packet communication, 29 is a common bus of the CPU 23, and 100 is a network (NW) based on the TCP / IP system.
[0017]
Furthermore, 70 is a central monitoring device (main body), 71 is a CPU (including a main memory storing a control program) for performing main control and processing of the monitoring device 70, 72 is a hard disk device (HDD) as a secondary storage device. ) 73 is a common bus of the CPU 71, 62 is a communication control unit (COM) that performs packet communication, 60 is a decoder unit (DEC) that separates / decodes / reproduces a received packet (stream) from the encoder device 20a according to the MPEG2 system, 63 is a reception stream separation unit, 64 is a video decoder (VDC) that decodes and reproduces the separated video data stream VES and converts it into a video signal, and 65 decodes and reproduces the audio data stream AES and converts it into an audio signal The voice decoder (ADC) 66 performs voice synthesis to convert (synthesize) text data into a corresponding voice signal. (CDC), 67 and 68 are signal synthesizers for synthesizing analog signals, 51 is a monitor for displaying surveillance video, 52 is a keyboard operated by the supervisor b, and 53 is a speaker (SP) for outputting audio signals. is there.
[0018]
The inset (a) shows a management table 74 of a subject (management target) video managed and referred to by the CPU 71. In the figure, “AD” represents a network address (IP address), and that three encoder devices (of the same type as the encoder device 20a) connected to the monitoring device 70 correspond to the IP addresses 001 to 003, respectively. Show. “Identification information” represents a place where audio identification information A to C for specifying a subject (monitoring target) video is stored for each of the IP addresses 001 to 003.
[0019]
As will be described later, the voice identification information A to C is obtained directly from the encoder devices IPA001 to IPA003 whenever necessary, and the voice identification information A to C obtained in advance is stored in the HDD 72 of the monitoring device 70. It may be considered that data is read from the HDD 72 whenever necessary. In the former case, the encoder devices IPA001 to IPA003 are the locations of the voice identification information A to C. In the latter case, the storage addresses of the voice identification information A to C are recorded in the respective columns of “identification information”. Although not shown, the monitoring video (video channel) of each encoder device and the IP addresses 001 to 003 are associated one-to-one.
[0020]
Next, the format of MPEG2-TS (transport stream) will be described with reference to FIG. In the figure, ES (Elementary Stream) is composed of encoded data strings of video, audio, and information, and is a component of content (program). PES (Packetized Elementary Stream) is obtained by dividing an ES into variable-length blocks and attaching a header to the ES. Further, TSP (Transport Stream Packet) is obtained by dividing PES into fixed-length blocks and adding headers. A TS (Transport Stream) is a series of TS packets (fixed to 188 bytes), and constitutes a plurality of programs. Under such a standard, the encoder device 20a converts video, audio, and data ESs into TSs and transmits them, and the monitoring device 70 converts TSs into video, audio, and data ESs, and monitors 51 and 53. , Output to the CPU 71.
[0021]
Returning to FIG. 2, the installation of the monitoring camera and the operation of subject video monitoring using the camera will be described. The construction person in charge a turns on the power to the encoder device 20a when the installation work of the camera 11 is completed. As a result, the video signal of the camera 11 is converted into a video data stream VES by the video encoder 21 and multiplexed by the multiplexing unit 27. Further, in this state, the switch 14 is turned OFF, whereby the CPU 23 connects the selector 25 to the microphone 12 side and connects the selector 26 to the voice encoder 22 side. Thus, the monitoring audio signal from the microphone 12 is converted into the audio data stream AES by the audio encoder 22 and multiplexed by the multiplexing unit 27, and thus the monitoring video and the monitoring audio TS are sent to the monitoring device 70.
[0022]
In the monitoring device 70, the received TS is separated by the separation unit 63, and the video data stream VES therein is decoded and reproduced by the video decoder 64 and displayed on the monitor 51. The audio data stream AES is decoded and reproduced by the audio decoder 65 and output to the speaker 53. As a result, the supervisor b can monitor the video and audio of the subject (monitoring target).
[0023]
On the other hand, at the site, the construction worker a continues to press (turn on) the switch 14 to input identification (explanation) information of the subject video. Then, the state is detected by the CPU 23, and the CPU 23 connects the selector 25 to the microphone 13 side and controls to store the audio data stream AES output from the audio encoder 22 in the memory 24. In this state, when the construction worker a inputs voice identification information (subject location, name, shooting direction, shooting angle, etc.) of the subject video, the voice signal is encoded by the voice encoder 22 and then temporarily stored in the memory 24. Stored in At this time, the audio signal from the monitoring microphone 12 is temporarily interrupted, but the video signal of the camera 11 is still sent to the monitoring device 70 side.
[0024]
Note that the description of the subject video may be input from the monitoring microphone 12 attached to the camera 11 without providing the microphone 13 separately. Even in this case, by pressing the switch 13 simultaneously with the voice input, the CPU 23 can store the voice input of the section in the memory 24 as the description input of the subject video. However, since the monitoring microphone 12 attached to the camera 11 is generally installed together with the camera 11 in a place where it is difficult for the person in charge of the construction to use it, it is preferably provided separately on the encoder device 20a side. A microphone 13 for message input is provided.
[0025]
Next, the construction worker a completes the voice input and releases the switch 14 (turns it OFF). Upon detecting this state, the CPU 23 connects the selector 25 to the microphone 12 side and outputs the audio data stream AES output from the audio encoder 22 to the multiplexing unit 27. As a result, the monitoring audio signal from the microphone 12 is sent to the monitoring device 70 again.
[0026]
Next, the process of accumulating and reproducing audio identification information for a subject (monitoring target) video will be described with reference to a flow. FIG. 6 is a sequence diagram of the process of accumulating / reproducing the voice identification information. FIG. 6A shows that the voice identification information of the subject video is held in advance on the encoder device 20 side, and a request from the monitoring device 70 is made. The case where voice identification information is transmitted every time is shown. In the figure, in step S11, the construction worker a inputs voice identification information of the subject video from the microphone 13 in advance. In step S 12, the input voice identification information is converted into a voice data stream AES and stored in the memory 24. In step S13, the CPU 23 stores information indicating that the voice identification information has been stored, for example, in a private data area (DES) in the MPEG format and notifies the monitoring device 70 of the information. This notification may be performed using a stream of another channel or a packet formed separately.
[0027]
In the monitoring device 70, the supervisor b clicks a predetermined icon if he / she wants to know the identification information of the subject while viewing the selected subject image on the display screen. That is, the output of an audio signal for specifying the selected subject image is activated. In response to the request instruction accompanying the click of this icon, the CPU 71 uses the IP address (for example, IPA = 001) of the encoder device 20a corresponding to the selected monitoring video in the management table 74 in step S14. A request packet for voice identification information is generated and transmitted to the network 100. Upon reception of this request packet, the encoder device 20a (IPA = 001) reads out the audio identification information of the subject video from the memory 24 in step S15, and stores it in the audio data area (AES) in the MPEG format for monitoring. To device 70. In response to this, in the monitoring device 70, the received voice identification information is separated / decoded / reproduced via the separation unit 63 and the voice decoder 65 and output to the speaker 53.
[0028]
FIG. 6B shows a case where the audio identification information of the subject video is transmitted and held in advance on the monitoring device 70 side and is output to the speaker 53 every time there is a request from the monitor b. In this case, although not shown, when the CPU 23 notifies the monitoring device 70 that the voice identification information has been accumulated, the monitoring device 70 promptly transmits a voice identification information request packet. In step S15, the encoder device 20a stores the audio identification information of the subject video in the private data area (DES) of the MPEG format and transmits it to the monitoring device 70. The monitoring device 70 stores the voice identification information received in step S21 in a storage address corresponding to the IP address of the encoder device 20a in the memory (HDD 72).
[0029]
Thereafter, the supervisor b clicks a predetermined icon while viewing the subject video on the display screen and wants to know the identification information of the subject. In response to the request instruction accompanying this icon click, the monitoring device 70 decodes / reproduces the voice identification information stored in the HDD 72 through the voice decoder 65 and outputs it to the speaker 53 in step S22. .
[0030]
FIG. 3 is a diagram showing another example of the encoder device 20b, which is audio identification information for specifying (explaining) a subject video to be transmitted to the monitoring device 70, which is multiplexed into the MPEG format and stored in the memory 24. The case of accumulation is shown.
[0031]
In the following description of each type of encoder device 20b-20d, the configuration of the monitoring device 70 is the same (common) throughout FIGS. Further, the same processing sequence as described in FIG. 6 can be applied.
[0032]
In FIG. 3, when the construction person in charge a turns off the switch 14 (normally), the CPU 23 connects the selector 25 to the monitoring microphone 12 side and connects the selector 26 to the multiplexing unit 27 side. In addition, the multiplexing unit 27 in this case multiplexes the video data stream VES of the camera 11 and the audio data stream AES of the monitoring microphone 12 into the MPEG format and transmits the multiplexed data to the monitoring device 70. Accordingly, the monitor b in this case can simultaneously monitor the subject image being monitored and the surrounding sound.
[0033]
Next, when the construction worker a turns on the switch 14, the CPU 23 connects the selector 25 to the microphone 13 side and connects the selector 26 to the multiplexing unit 27 side. In addition, the multiplexing unit 27 in this case multiplexes the video data stream VES of the camera 11 and the explanation audio data stream AES of the microphone 13 into the MPEG format and transmits them to the monitoring device 70 and also transmits the same contents (monitoring video and explanation). Audio) is also stored in the memory 24. Accordingly, the monitor b in this case can simultaneously monitor the subject video and the explanation voice. Thereafter, the subject video and the explanation voice thereof can be read from the memory 24 and monitored (confirmed) by the monitoring device 70 at an arbitrary time. Alternatively, the subject video and its explanation voice can be transferred and stored in advance in the memory 72 of the monitoring device 70, and can be read and monitored (confirmed) at an arbitrary time. The management table 74 is shown in the inset (a). In this case, the storage address of the stream data consisting of the sample video of the subject and the explanation audio is recorded in the “identification information” column.
[0034]
In the encoder device 20b of this example, the explanation sound is stored in the memory 24 after multiplexing together with the subject video (test / sample video) at the time when the switch 14 is pressed, so that the construction worker a inputs the explanation voice. Has an advantage that a subject suitable for specifying a subject (monitoring target) can be selected as a sample video of the subject.
[0035]
FIG. 4 is a diagram showing another example of the encoder device 20c, which transmits the subject video for monitoring and its surrounding audio, the subject test video for specifying the monitoring target and its explanatory audio in separate streams (different TS). Shows the case. Until the subject video and the explanation voice thereof are stored in the memory 24, it may be the same as that described in FIG. In this example, the subject sample video and its explanation audio stored in the memory 24 are sent in a separate stream from the monitoring video, so that the monitor b monitors the subject sample video and its explanation audio at an arbitrary time. it can.
[0036]
FIG. 5 is a diagram showing another example of the encoder device 20d, and shows a case in which text data (DES) for specifying (explaining) a subject video is transmitted together with the subject video and its surrounding sounds. In the figure, 30 is a peripheral interface (PIF) such as RS-232C, and the CPU 23 is connected to an external notebook PC 15 (or dedicated terminal device) via the PIF 30.
[0037]
In this case, the construction worker a inputs the description data of the subject video from the notebook PC 15. This explanation data is temporarily stored in the CPU 23, and the monitoring device 70 is notified accordingly. Thereafter, when there is a request from the monitoring device 70, the explanation data is multiplexed into a private data area (DES) in the MPEG format and transferred to the monitoring device 70. The monitoring device 70 monitors normal monitoring video (including monitoring audio), converts the transmitted explanatory text data into corresponding character pattern data by the CDC 66, and converts the text data to the subject video by the signal synthesizer 67. Composite to signal. In this case, the supervisor b can easily recognize (specify) the subject video by reading the explanatory characters combined with the surveillance video.
[0038]
Alternatively, the received text data is converted into a voice signal by the voice synthesizer 66, and this is synthesized by the signal synthesizer 68 into the subject monitoring voice signal. In this case, the supervisor b can easily recognize (specify) the subject video by listening to the explanation voice synthesized with the monitoring voice. Note that the description data of the subject video received from the encoder device 20d may be stored in the HDD 72 in advance, and the access address may be managed by the management table 74. The management table 74 is shown in the inset (a). In this case, the storage address of the description data of the subject is recorded in the “identification information” column.
[0039]
In addition, although the common monitoring apparatus 70 connected to different types of encoder apparatuses 20a to 20d has been described in the above embodiment, the present invention is not limited to this. A camera monitoring system may be configured by using a dedicated monitoring device for any type of encoder device.
[0040]
Further, although the preferred embodiment of the present invention has been described, it goes without saying that various changes in the configuration, control, processing, and combination of each part can be made without departing from the spirit of the present invention.
[0041]
(Supplementary note 1) A camera monitoring system in which a plurality of encoder devices that encode and transmit a video signal of a camera and a monitoring device that collects and reproduces video data from each encoder device and displays them on a screen are connected via a network The encoder device encodes an audio signal input from the microphone to identify the subject video together with the video data of the subject and transmits the encoded video data to the monitoring device. The monitoring device displays the video data sent from the encoder device on the screen. A camera monitoring system, wherein the audio data for specifying the subject video is reproduced and output to a speaker.
[0042]
(Supplementary Note 2) A camera monitoring system in which a plurality of encoder devices that encode and transmit a video signal of a camera and a monitoring device that collects and reproduces video data from each encoder device and displays the data on a screen are connected via a network The encoder device transmits to the monitoring device text data input from an external device in order to identify the subject video together with the video data of the subject, and the monitoring device transmits the video data and text data sent from the encoder device. A camera surveillance system characterized by displaying the screen in association with each other.
[0043]
(Additional remark 3) The encoder apparatus is provided with the memory | storage means which memorize | stores the audio | voice information for specifying a to-be-photographed image | video, and transmits the audio | voice information of the said memory | storage means to a monitoring apparatus according to the request | requirement from a monitoring apparatus. The camera monitoring system according to attachment 1.
[0044]
(Supplementary Note 4) A camera monitoring system in which a plurality of encoder devices that encode and transmit a video signal of a camera and a monitoring device that collects and reproduces video data from each encoder device and displays the data on a screen are connected via a network The encoder device includes a switch that can be manually operated, and a control unit that encodes a voice signal from a microphone in a section in which the switch is energized and stores the encoded signal in a memory. And transmitting the voice information stored in the memory to the monitoring device according to the above.
[0045]
(Supplementary Note 5) A camera monitoring system in which a plurality of encoder devices that encode and transmit a video signal of a camera and a monitoring device that collects and reproduces video data from each encoder device and displays the data on a screen are connected via a network In the monitoring apparatus, the means for selecting the subject video from each encoder device, the means for energizing / deactivating the output of the audio signal for specifying the selected subject video, and the output of the audio signal are energized Control means for playing back audio data specifying the subject video, which is created by a corresponding encoder device, and outputting it to a speaker A monitoring device.
[0046]
【The invention's effect】
As described above, according to the present invention, it is very easy to identify and recognize a subject (monitoring target) video and to maintain it with a simple configuration in which a description of the subject (monitoring target) video is input on site (encoder device). Become.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating the principle of the present invention.
FIG. 2 is a block diagram (1) of the camera monitoring system according to the embodiment.
FIG. 3 is a block diagram (2) of the camera monitoring system according to the embodiment.
FIG. 4 is a block diagram (3) of the camera monitoring system according to the embodiment.
FIG. 5 is a block diagram (4) of the camera monitoring system according to the embodiment.
FIG. 6 is a sequence diagram of voice identification information storage / playback processing according to the embodiment;
FIG. 7 is a diagram for explaining MPEG2-TS.
FIG. 8 is a diagram illustrating a conventional technique.
[Explanation of symbols]
11 Video camera (VC)
12, 13 Microphone (MIC)
14 Manual switch (SW)
15 notebook PC
20 Encoder device
21 Video Encoder (VEC)
22 Speech encoder (AEC)
23 CPU
24 memory (MEM)
25, 26 Selector (SEL)
27 Multiplexer
28 Communication Control Unit (COM)
29 Common bus
30 Peripheral interface (PIF)
51 Display monitor
52 keyboard
53 Speaker (SP)
60 Decoder part (DEC)
62 Communication Control Unit (COM)
63 Separation part
64 Video decoder (VDC)
65 Audio decoder (ADC)
66 Speech synthesizer (CDC)
67,68 signal synthesizer
70 Monitoring device (main unit)
71 CPU
72 Hard Disk Drive (HDD)
73 Common bus
100 network (NW)

Claims (2)

カメラの映像信号を符号化して送信する複数のエンコーダ装置と、該複数のエンコーダ装置からの映像データを収集・再生して画面に表示する監視装置とがネットワークを介して接続するカメラ監視システムにおいて、
前記エンコーダ装置は、被写体の映像データと共に該被写体映像を特定するためにマイクから入力された音声信号を符号化して前記監視装置に送信し、
前記監視装置は、前記エンコーダ装置から送られた映像データを画面に表示すると共に、該被写体映像を特定するための音声データを再生してスピーカに出力することを特徴とするカメラ監視システム。
In a camera monitoring system in which a plurality of encoder devices that encode and transmit camera video signals and a monitoring device that collects and reproduces video data from the plurality of encoder devices and displays them on a screen are connected via a network.
The encoder device encodes an audio signal input from a microphone to identify the subject video together with video data of the subject, and transmits the encoded audio signal to the monitoring device.
The camera monitoring system, wherein the monitoring device displays video data sent from the encoder device on a screen, reproduces audio data for specifying the subject video, and outputs it to a speaker.
前記エンコーダ装置は、被写体映像を特定するための音声情報を記憶する記憶手段を備え、前記監視装置からの要求に応じて前記記憶手段の音声情報を監視装置に送信することを特徴とする請求項1に記載のカメラ監視システム。  The encoder device includes storage means for storing audio information for specifying a subject video, and transmits the audio information of the storage means to the monitoring apparatus in response to a request from the monitoring apparatus. The camera monitoring system according to 1.
JP2002012827A 2002-01-22 2002-01-22 Camera surveillance system Expired - Fee Related JP3962263B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002012827A JP3962263B2 (en) 2002-01-22 2002-01-22 Camera surveillance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002012827A JP3962263B2 (en) 2002-01-22 2002-01-22 Camera surveillance system

Publications (2)

Publication Number Publication Date
JP2003219405A JP2003219405A (en) 2003-07-31
JP3962263B2 true JP3962263B2 (en) 2007-08-22

Family

ID=27649929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002012827A Expired - Fee Related JP3962263B2 (en) 2002-01-22 2002-01-22 Camera surveillance system

Country Status (1)

Country Link
JP (1) JP3962263B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006229825A (en) * 2005-02-21 2006-08-31 Victor Co Of Japan Ltd Monitoring system

Also Published As

Publication number Publication date
JP2003219405A (en) 2003-07-31

Similar Documents

Publication Publication Date Title
JP2912899B2 (en) Multimedia system for transmitting and receiving program numbers and method thereof
JP5047607B2 (en) Stream recording apparatus, stream recording method, recording system, and recording / reproducing system
JPH0564167A (en) Television broadcast system
KR101849229B1 (en) CCTV video monitoring system using voice recognition
US20120169873A1 (en) Audio/video monitoring system and method for simultaneously playing audio/video
JP2008187363A (en) Network equipment, voice data transmission method, voice data transmission program, monitor device and monitor camera system
JPH09214811A (en) Camera control system
JP3962263B2 (en) Camera surveillance system
JP2007202206A (en) Communication system
JP2007267102A (en) Input signal display device, signal output device, input signal display system, and remote control method
US20080244405A1 (en) Gui display system recording apparatus, and gui display method
JP2009111677A (en) Video imaging control system
US8867887B2 (en) Multimedia data recording/reproducing device
JP4200410B2 (en) Device selection device and device selection method
US7533401B2 (en) Digital data processing from multiple streams of data
US9241140B2 (en) Arrangement for video surveillance
JP4256250B2 (en) DATA RECORDING SYSTEM, DATA RECORDING DEVICE, DATA TRANSMITTING DEVICE, DATA RECORDING METHOD, RECORDING PROGRAM, AND RECORDING MEDIUM RECORDING THE SAME
JP2007221362A (en) Data communication apparatus and video conference system
JP6230875B2 (en) Intercom system
JP4509889B2 (en) Transceiver and monitoring system using the same
JP5302113B2 (en) Monitoring base device and monitoring system equipped with the same
JP4225075B2 (en) Reporting device and reporting system
JP2630041B2 (en) Video conference image display control method
JP2007228392A (en) Video monitor system
JP4264043B2 (en) Subtitle information processing system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070518

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100525

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110525

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120525

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130525

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140525

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees