JP2006101028A - Supervisory system - Google Patents
Supervisory system Download PDFInfo
- Publication number
- JP2006101028A JP2006101028A JP2004282612A JP2004282612A JP2006101028A JP 2006101028 A JP2006101028 A JP 2006101028A JP 2004282612 A JP2004282612 A JP 2004282612A JP 2004282612 A JP2004282612 A JP 2004282612A JP 2006101028 A JP2006101028 A JP 2006101028A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- camera
- cameras
- video
- monitoring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
Description
この発明は、監視カメラ等の撮像装置で撮影された画像をネットワーク経由で閲覧者に配信する監視システムに関する。 The present invention relates to a monitoring system that distributes an image captured by an imaging device such as a monitoring camera to a viewer via a network.
近年、Webカメラやネットワークカメラにより撮影した映像を、インターネットやLAN(Local Area Network)などの各種通信ネットワークを介して閲覧者の端末へ配信するシステムへの関心が高まっている。この種のシステムを利用すると、通信ネットワークに接続されたパーソナル・コンピュータなどの端末において、ブラウザ・ソフトウェアを用いることでカメラ映像を簡単に見ることができ、閲覧者は居ながらにして遠隔地のリアルな映像を閲覧することができる。 In recent years, there has been an increasing interest in systems that distribute video captured by a Web camera or network camera to a viewer's terminal via various communication networks such as the Internet or a LAN (Local Area Network). Using this type of system, it is possible to easily view the camera video on a terminal such as a personal computer connected to a communication network by using browser software. You can browse the video.
例えば、幼稚園や保育園、託児所などにWebカメラやネットワークカメラを設置して、子供の様子を家庭や職場からリアルタイムに監視するシステムが提案されている。しかし、リアルタイム配信であると、幼稚園などが開園している時間内に閲覧しなければならないので、勤務時間中に監視することはできないし、常時リアルタイムで見ることは困難である。そこで、カメラで撮影された映像を蓄積し、リアルタイムまたは蓄積した映像を選択して配信するシステムが提案されている(例えば、特許文献1を参照。)。 For example, a system has been proposed in which a Web camera or a network camera is installed in a kindergarten, nursery school, day nursery, etc., and the state of a child is monitored in real time from a home or workplace. However, in the case of real-time distribution, since it must be viewed within the time when the kindergarten is open, it cannot be monitored during working hours, and it is difficult to always see in real time. In view of this, a system has been proposed in which videos taken by a camera are accumulated, and real-time or accumulated videos are selected and distributed (see, for example, Patent Document 1).
ところが、園内に複数のカメラを設置したシステムの場合、特定の被写体を見つけるのは困難である。例えば、幼稚園や保育園では制服や体操着などを着用していることがあり、自分の子供を見分けるのが難しい場合がある。また、子供たちは自由に動き回るため、1つのカメラで撮像された映像に収まっていることは稀である。このため、保護者は複数のカメラ映像を見比べ、その中から絶えず自分の子供を捜さなければならない。 However, in a system in which a plurality of cameras are installed in the garden, it is difficult to find a specific subject. For example, a kindergarten or a nursery school may wear uniforms or gym clothes, and it may be difficult to distinguish one's own child. In addition, since children move around freely, it is rare that they are contained in an image captured by one camera. For this reason, parents must compare multiple camera images and constantly search for their children.
この発明は上記事情に着目してなされたもので、その目的とするところは、複数のカメラを用いた監視システムにおいて、特定の被写体が最適な状態で撮像されている映像を選択して配信可能な監視システムを提供することにある。 The present invention has been made paying attention to the above circumstances, and the object of the present invention is to select and deliver a video in which a specific subject is imaged in an optimal state in a monitoring system using a plurality of cameras. Is to provide a simple monitoring system.
上記目的を達成するためにこの発明は、監視対象エリアを撮像して監視画像を出力する複数の撮像装置と、上記複数の撮像装置と信号伝送路を介して接続されると共に、外部端末と通信ネットワークを介して接続されるサーバ装置と、上記監視対象エリア内に存在する被写体が上記複数の撮像装置の撮像範囲のいずれに位置するかを検出する被写体検出装置とを備える。そして、上記サーバ装置は、上記複数の撮像装置から出力される監視画像を、上記信号伝送路を介してそれぞれ収集し、収集した監視画像ごとに、監視画像中に含まれる上記被写体の撮像状態を検出する。さらに、上記外部端末から特定の被写体を含む監視画像の配信要求が送られた場合に、上記被写体検出装置による検出結果及び検出された撮像状態に基づいて、収集された複数の監視画像の中から特定の被写体を含みかつ当該被写体の撮像状態が最も良い監視画像を選択する。そして、この選択された監視画像を配信要求元の外部端末へ通信ネットワークを介して送信するようにしたものである。 In order to achieve the above object, the present invention is connected to a plurality of imaging devices that image a monitoring target area and output a monitoring image, and are connected to the plurality of imaging devices via a signal transmission path and communicate with an external terminal. A server device connected via a network; and a subject detection device that detects in which of the imaging ranges of the plurality of imaging devices the subject existing in the monitoring target area is located. Then, the server device collects the monitoring images output from the plurality of imaging devices through the signal transmission path, and sets the imaging state of the subject included in the monitoring image for each collected monitoring image. To detect. Further, when a monitoring image delivery request including a specific subject is sent from the external terminal, based on the detection result by the subject detection device and the detected imaging state, a plurality of collected monitoring images are selected. A monitoring image including a specific subject and having the best imaging state of the subject is selected. Then, the selected monitoring image is transmitted to the external terminal as the distribution request source via the communication network.
このように構成することにより、配信される監視画像には常に閲覧を希望する特定の被写体が撮像されているため、閲覧者は複数の撮像装置が撮像した監視画像の内から特定の被写体を検索する時間や負担を軽減することが可能となる。さらに、同時刻に複数の撮像装置によって被写体が撮像されていた場合は、検出された撮像状態に基づいて、当該被写体の撮像状態が最も良い監視画像が選択されて配信されるため、閲覧者は特定の被写体が最適な状態で撮像されている監視画像を閲覧することが可能となる。 With this configuration, since a specific subject desired to be browsed is always captured in the distributed monitoring image, the viewer searches for a specific subject from among the monitoring images captured by a plurality of imaging devices. It becomes possible to reduce the time and burden to do. Furthermore, when a subject is imaged by a plurality of imaging devices at the same time, since the monitoring image with the best imaging state of the subject is selected and distributed based on the detected imaging state, the viewer can It is possible to view a monitoring image in which a specific subject is captured in an optimal state.
したがってこの発明によれば、複数のカメラを用いた監視システムにおいて、特定の被写体が最適な状態で撮像されている映像を選択して配信可能な監視システムを提供することができる。 Therefore, according to the present invention, it is possible to provide a monitoring system that can select and distribute a video in which a specific subject is captured in an optimal state in a monitoring system using a plurality of cameras.
図1は、この発明に係わる監視システムの一実施形態を示す概略構成図である。このシステムは、カメラC1〜C4、サーバ装置SV、及び通信ネットワークNWを備える。
カメラC1〜C4は、ネットワーク・インタフェースが設けられたネットワークカメラやWebカメラなどで構成される。そして、撮像管やCCD(Charge Coupled Device)等の固体撮像素子により撮像された映像をデジタル処理し、ネットワーク・インタフェースを介して映像を配信する機能を有する。カメラC1〜C4は、例えば図1に示すように監視対象エリアに一定の間隔で配置され、監視対象エリア内で移動する被写体21を分担して撮像する。カメラC1〜C4により撮像された映像信号は、カメラに設けられたネットワーク・インタフェースにより信号ケーブル又はLAN(Local Area Network)を介してサーバ装置SVに送信される。
FIG. 1 is a schematic configuration diagram showing an embodiment of a monitoring system according to the present invention. This system includes cameras C1 to C4, a server device SV, and a communication network NW.
The cameras C1 to C4 are configured by a network camera or a web camera provided with a network interface. Then, it has a function of digitally processing an image picked up by a solid-state image pickup device such as an image pickup tube or a CCD (Charge Coupled Device) and distributing the image via a network interface. For example, as shown in FIG. 1, the cameras C1 to C4 are arranged at regular intervals in the monitoring target area, and shoot the
サーバ装置SVは、上記カメラC1〜C4により撮像された映像信号を上記信号ケーブル又はLANを介して受信する機能を備える。また、閲覧者が使用するユーザ端末PC1〜PCnに対して、通信ネットワークNWを介して接続される。ユーザ端末PC1〜PCnは例えばパーソナル・コンピュータにより構成され、ブラウザ・ソフトウェアを備えている。通信ネットワークNWは、例えばLAN、或いはインターネットに代表されるコンピュータ・ネットワークとこのコンピュータ・ネットワークとユーザ端末との間を接続するための加入者網とから構成される。なお、上記ユーザ端末には携帯電話機やPDA(Personal Digital Assistants)等の携帯端末MPも含まれる。これらの携帯端末MPは図示しない移動通信網を経由して上記コンピュータ・ネットワークに接続される。 The server device SV has a function of receiving the video signal captured by the cameras C1 to C4 via the signal cable or the LAN. Moreover, it connects via the communication network NW with respect to user terminal PC1-PCn which a viewer uses. The user terminals PC1 to PCn are constituted by personal computers, for example, and are provided with browser software. The communication network NW includes, for example, a computer network represented by a LAN or the Internet, and a subscriber network for connecting the computer network and a user terminal. The user terminals include mobile terminals MP such as mobile phones and PDAs (Personal Digital Assistants). These portable terminals MP are connected to the computer network via a mobile communication network (not shown).
また、閲覧者は予めサーバ装置SVにユーザ登録され、アカウントとパスワードを付与されている。このアカウントとパスワードをユーザ端末PC1〜PCn及び携帯電話MPから、通信ネットワークNWを介してサーバ装置SVに対して送信し、ユーザ認証を行うことで、カメラC1〜C4により撮像された映像を閲覧可能となる。 In addition, the viewer is registered in advance in the server device SV and given an account and a password. By transmitting this account and password from the user terminals PC1 to PCn and the mobile phone MP to the server device SV via the communication network NW and performing user authentication, the images captured by the cameras C1 to C4 can be viewed. It becomes.
さて、カメラC1〜C4による被写体21の撮像動作について図2を用いて説明する。カメラC1〜C4は構成が同一であるため、ここではカメラC1について説明を行う。幼稚園児や保育園児などの被写体21に取着された名札やバッヂには、無線タグT1が設けられている。この無線タグT1は、例えば、RFID(Radio Frequency IDentification)タグからなり、被写体ごとにユニークに設定された個別識別情報(以下、IDと呼称する)を無線信号として発信する。
Now, the imaging operation of the
一方、カメラC1にはタグリーダR1が付設されている。タグリーダR1は、被写体21に取着された無線タグT1が発する無線信号を受信する。そして、受信した信号から被写体のIDを認識する。また、タグリーダR1は、無線タグT1が発する無線信号の受信強度を測定する機能を有する。カメラC1〜C4は、撮像により得られた映像信号と共に、上記認識されたID及び測定された受信強度を表す情報をサーバ装置SVに送信する。
On the other hand, a tag reader R1 is attached to the camera C1. The tag reader R1 receives a wireless signal emitted from the wireless tag T1 attached to the
サーバ装置SVは、例えば次のように構成される。図3は、その機能構成を示すブロック図である。すなわち、サーバ装置SVはマイクロプロセッサなどのCPU(Central Processing Unit)11を備える。このCPU11には、バス12を介して、データメモリ13及びプログラムメモリ14が接続され、さらにカメラ入力インタフェース(カメラ入力I/F)15と通信インタフェース(通信I/F)16が接続されている。カメラ入力I/F15は、前述したカメラC1〜C4からの映像信号と被写体のID及び受信強度を表す情報の受信処理を行う。通信I/F16は、通信ネットワークNWを介してユーザ端末PC1〜PCn及び携帯電話MPとの間でデータの送受信を行う。
The server device SV is configured as follows, for example. FIG. 3 is a block diagram showing the functional configuration. That is, the server apparatus SV includes a CPU (Central Processing Unit) 11 such as a microprocessor. A
データメモリ13は、記憶媒体として例えばRAMまたはハードディスクなどを使用する。データメモリ13には、カメラC1〜C4に対応付けてID受信履歴データベース13a及び蓄積映像データベース13bが記憶される。ID受信履歴データベース13aには、タグリーダR1により受信された無線タグT1のIDと受信強度が受信時刻に対応付けて記憶される。蓄積映像データベース13bは、カメラ入力I/Fを介して受信されたカメラC1〜C4の映像データが記憶される。
The
プログラムメモリ14には、この発明に係わる制御プログラムとして、ID受信履歴作成プログラム14a、ライブ映像配信プログラム14b及び蓄積映像配信プログラム14cが格納される。ID受信履歴作成プログラム14aは、前述のID受信履歴データベース13aの作成を行う。ライブ映像配信プログラム14bは、ユーザ端末PC1〜PCn及び携帯端末MPからの映像配信要求に応じて、カメラC1〜C4により撮像された映像データをリアルタイムで配信する。蓄積映像配信プログラム14cは、ユーザ端末PC1〜PCn及び携帯端末MPからの映像配信要求に応じて、蓄積映像データベース13bから該当するカメラ映像を読み出して配信する。
The
ところで、上記ライブ映像配信プログラム14b及び蓄積映像配信プログラム14cはいずれも配信対象映像の選択制御機能を備えている。配信対象映像の選択制御機能は、ユーザ端末PC1〜PCn及び携帯端末MPから映像配信要求が送られた場合に、この配信要求から監視対象の被写体のIDを抽出する。そして、カメラC1〜C4に対応して設けられたID受信履歴データベース13aを検索することで、上記抽出されたIDに対応する被写体を撮像したカメラを特定する。そして、同一時間帯に上記被写体を撮像したカメラが複数台存在する場合には、ID受信履歴データベース13aに記憶された受信強度が最も大きいカメラを1台選択し、このカメラにより撮像された映像データを選択して送信させる。
By the way, both the live
次に、以上のように構成されたシステムによる監視に関わる動作について説明する。
カメラC1〜C4は、被写体21が存在する監視対象領域を保育園または幼稚園の開園時刻から閉園時刻まで連続して撮像する。また、被写体21に取着された無線タグT1は、被写体のIDを無線信号としてある一定の周期(この実施例では1分間)ごとに発信する。カメラC1〜C4に付設されたタグリーダR1は、受信した無線信号からIDを認識し、さらに無線信号の受信強度を測定する。そして、カメラC1〜C4は、撮像した映像と共に、上記受信されたID及び測定された受信強度をサーバ装置SVに対して送信する。
Next, operations related to monitoring by the system configured as described above will be described.
The cameras C <b> 1 to C <b> 4 continuously image the monitoring target area where the subject 21 exists from the opening time of the nursery school or the kindergarten to the closing time. Further, the wireless tag T1 attached to the subject 21 transmits the subject ID as a wireless signal every certain period (1 minute in this embodiment). The tag reader R1 attached to the cameras C1 to C4 recognizes the ID from the received wireless signal, and further measures the reception strength of the wireless signal. Then, the cameras C1 to C4 transmit the received ID and the measured received intensity to the server device SV together with the captured video.
これに対して、サーバ装置SVでは、常駐プログラムとしてID受信履歴作成プログラム14aが実行されている。このID受信履歴作成プログラム14aに従いサーバ装置SVのCPU11は、カメラ入力I/F15により受信された上記カメラ映像を、受信時刻を表すタイムスタンプを付して蓄積映像データベース13bに蓄積する。またそれと共に、受信されたID及び受信強度をID受信履歴データベース13aに受信時刻に対応付けて記憶する。その一例を図4に示す。
On the other hand, in the server apparatus SV, an ID reception
次に、上記作成されたID受信履歴データベース13aを利用して、撮像中のカメラ映像や蓄積映像データベース13bに記憶されたカメラ映像を通信ネットワークNWを介してユーザ端末PC1〜PCn及び携帯電話MPに対して配信する動作について説明する。
Next, using the created ID
(A)ライブ映像の配信
図5は、ライブ映像配信制御の処理手順と処理内容を示すフローチャートである。
ユーザ端末PC1〜PCnにおいて閲覧者がライブ映像の閲覧操作を行うと、当該ユーザ端末PC1〜PCnからサーバ装置SVに対し、通信ネットワークNWを介して監視対象の被写体21のIDを含むライブ映像閲覧要求が送信される。
(A) Live video distribution
FIG. 5 is a flowchart showing a processing procedure and processing contents of live video distribution control.
When the viewer performs a live video browsing operation on the user terminals PC1 to PCn, a live video browsing request including the ID of the subject 21 to be monitored is transmitted from the user terminals PC1 to PCn to the server SV via the communication network NW. Is sent.
サーバ装置SVは、上記ライブ映像閲覧要求が通信I/F16において受信されると、以後ライブ映像配信プログラム14bに従い以下のようにライブ配信制御を実行する。すなわち、CPU11は先ずステップS5aにおいて、上記受信されたライブ映像閲覧要求から監視対象の被写体21のIDを抽出する。続いてステップS5bにより、上記抽出されたIDをもとに各ID受信履歴データベース13aを検索して、該当する被写体を撮像したカメラを特定する。なお、ID受信履歴データベース13aに現在時刻と一致する受信時刻が記憶されていない場合には、現在時刻に最も近い受信時刻を選択し、この受信時刻に対応付けて記憶されている受信IDをもとにカメラを特定する。
When the live video browsing request is received in the communication I /
次にCPU11は、上記検索処理により特定されたカメラが複数台存在するか否かをステップS5cにより判定する。この判定により、複数のカメラが存在すると判定された場合は、ステップS5dに移行し、各カメラのID受信履歴データベース13aにアクセスし、記憶されている受信強度が最も大きいカメラを選択する。かくして、監視対象の被写体が最も大きく写っているカメラが選択される。
Next, the
そしてCPU11は、ステップS5eにより、以後上記選択されたカメラから送られる映像データを通信ネットワークNWを介して配信要求元のユーザ端末PC1〜PCn又は携帯端末MPへ送信する。また、ステップS5dの判定において、被写体21を撮像中のカメラが1台のみ検索された場合には、ステップS5eに移行して、以後上記検索されたカメラから送られた映像データを配信要求元のユーザ端末PC1〜PCn又は携帯端末MPへ送信する。
Then, in step S5e, the
さらに、上記配信中にCPU11は、ステップS5fにおいて、ユーザ端末PC1〜PCn又は携帯端末MPから閲覧終了要求が受信されたか否かの判定を行い、受信されない場合にはステップS5gに移行する。そしてステップS5gにおいて、ある単位時間(例えば1分)の時刻経過を検知すると、ステップS5bに戻り、先に述べた動作を繰り返し行う。これに対しステップS5fの終了判定において閲覧終了要求の受信を検出すると、サーバ装置SVはライブ映像の配信を終了する。
Furthermore, during the distribution, the
(B)蓄積映像の配信
図6は、蓄積映像配信制御の処理手順と処理内容を示すフローチャートである。
ユーザ端末PC1〜PCn又は携帯端末MPにおいて閲覧者が蓄積映像の閲覧操作を行うと、当該ユーザ端末PC1〜PCn又は携帯端末MPからサーバ装置SVに対し、通信ネットワークNWを介して、閲覧対象期間を指定する情報及び監視対象の被写体21のIDを含む蓄積映像閲覧要求が送信される。
(B) Distribution of stored video
FIG. 6 is a flowchart showing the processing procedure and processing contents of the stored video distribution control.
When the viewer performs an operation for browsing the stored video in the user terminals PC1 to PCn or the portable terminal MP, the user terminal PC1 to PCn or the portable terminal MP sends the browsing target period to the server device SV via the communication network NW. A stored image browsing request including information to be specified and the ID of the subject 21 to be monitored is transmitted.
これに対しサーバ装置SVは、上記蓄積映像閲覧要求が通信I/F16において受信されると、以後蓄積映像配信プログラム14cに従い以下のように蓄積配信制御を実行する。すなわち、CPU11は、先ずステップS6aにおいて、上記受信された蓄積映像閲覧要求から閲覧対象期間の指定情報及び監視対象の被写体21のIDをそれぞれ抽出する。そして、上記指定された閲覧期間の開始時刻及び終了時刻を設定し、以後上記設定された開始時刻から終了時刻まで一定時間置きに蓄積映像を送信するための処理をステップS6bループ開始からステップS6hのループ終了まで繰り返し行う。
On the other hand, when the stored video browsing request is received in the communication I /
すなわち、CPU11は先ずステップS6cにおいて、上記抽出されたIDをもとに各ID受信履歴データベース13aを検索して、該当する被写体を撮像したカメラを特定する。なお、ID受信履歴データベース13aに上記設定時刻と一致する受信時刻が記憶されていない場合には、上記設定時刻に最も近い受信時刻を選択し、この受信時刻に対応付けて記憶されている受信IDをもとにカメラを特定する。
That is, first, in step S6c, the
次にCPU11は、上記検索処理により特定されたカメラが複数台存在するか否かをステップS6dにより判定する。この判定により、複数のカメラが存在すると判定された場合は、ステップS6eに移行し、各カメラのID受信履歴データベース13aにアクセスし、記憶されている受信強度が最も大きいカメラを選択する。かくして、監視対象の被写体が最も大きく写っているカメラが選択される。
Next, the
そしてCPU11は、ステップS6fにより、上記選択されたカメラに対応する蓄積映像データベース13bをアクセスし、この蓄積映像データベース13bから設定された時刻に対応する監視映像データを読み出す。そして、この読み出された監視映像データを、通信ネットワークNWを介して配信要求元のユーザ端末PC1〜PCn又は携帯端末MPへ送信する。
In step S6f, the
また、ステップS6dの判定において、被写体21を撮像中のカメラが1台のみ検索された場合には、そのままステップS6fに移行する。そして、上記検索されたカメラに対応する蓄積映像データベース13bをアクセスして、上記設定された時刻に対応する監視映像データを読み出し、この読み出された監視映像データを通信ネットワークNWを介して配信要求元のユーザ端末PC1〜PCn又は携帯端末MPへ送信する。
If it is determined in step S6d that only one camera that is imaging the subject 21 is searched, the process proceeds to step S6f. Then, the stored
そうしてある設定時刻における映像データの送信が終了すると、CPU11はステップS6gに移行して次の時刻を設定し、ステップS6bのループ開始からステップS6hのループ終了まで蓄積映像の配信処理を繰り返す。
例えば、図7の期間G〜期間Lに示すように被写体21がカメラC1〜C4によりそれぞれ撮像されたとする。このうち期間Kと期間Lにおいては、被写体21がカメラC3及びカメラC4の両方で撮像されている。この場合、蓄積映像配信プログラム14bは、ID受信履歴データベース13aをアクセスして、期間Kと期間Lにおける無線タグT1から発信された無線信号の受信強度をそれぞれ読み出す。そして、期間Kの受信強度がレベル5、期間Lの受信強度がレベル3であった場合、撮影時間が重複している時間に関しては、受信強度の大きいカメラC3を優先する。かくして、その時刻ごとに無線タグT1からの受信レベルが最も大きい映像データ、つまり監視対象の被写体21が最も大きく写っていると推測される監視映像データが選択され、閲覧者の端末へ配信される。
When the transmission of the video data at the set time is completed, the
For example, it is assumed that the subject 21 is captured by the cameras C1 to C4 as shown in the period G to the period L in FIG. Among these, in the period K and the period L, the subject 21 is imaged by both the camera C3 and the camera C4. In this case, the stored
以上述べたようにこの実施形態では、被写体21に無線タグT1を取着すると共に、これらの無線タグT1から送信される無線信号を各カメラC1〜C4の設置位置においてそれぞれ受信し、受信された被写体のID及び受信強度をカメラC1〜C4ごとにID受信履歴データベース13aに記憶する。そして、ユーザ端末PC1〜PCn及び携帯端末MPから映像配信要求が送られた場合に、この配信要求に含まれる監視対象の被写体のIDをもとに上記ID受信履歴データベース13aを検索することで、上記監視対象の被写体を撮像したカメラを特定する。また、同一時間帯に上記監視対象の被写体を撮像したカメラが複数台存在する場合には、ID受信履歴データベース13aに記憶された受信強度が最も大きいカメラを1台選択し、このカメラにより撮像された映像データを選択して要求元の端末へ送信するようにしている。
As described above, in this embodiment, the wireless tag T1 is attached to the subject 21, and the wireless signals transmitted from these wireless tags T1 are received and received at the installation positions of the cameras C1 to C4, respectively. The subject ID and reception intensity are stored in the ID
したがってこの実施形態によれば、配信される映像データには常に閲覧を希望する特定の被写体21が撮像されているため、閲覧者はカメラC1〜C4が撮像した映像の内から特定の被写体21を検索する時間や負担を軽減することが可能となる。さらに、同時刻に複数のカメラC1〜C4によって被写体が撮像されていた場合は、被写体21に取着された無線タグT1が発する無線信号の受信強度に基づいて、受信強度が最も大きいカメラが選択されてその撮像映像データが配信されるため、閲覧者は常に特定の被写体が最も大きく写されている映像データを閲覧することが可能となり、これにより例えば自身の子供の様子をより明瞭に確認することが可能となる。 Therefore, according to this embodiment, since the specific subject 21 desired to be browsed is always captured in the video data to be distributed, the viewer selects the specific subject 21 from the images captured by the cameras C1 to C4. Search time and burden can be reduced. Furthermore, when the subject is captured by a plurality of cameras C1 to C4 at the same time, the camera with the highest reception strength is selected based on the reception strength of the wireless signal emitted from the wireless tag T1 attached to the subject 21. Since the captured video data is distributed, the viewer can always browse the video data in which the specific subject is the largest image, thereby more clearly confirming the state of the child, for example. It becomes possible.
なお、この発明は上記実施形態に限定されるものではない。例えば、被写体21の撮像に用いられるカメラの台数やタグリーダR1は、システム規模によって変更可能である。また、タグリーダR1は、対応するカメラが撮像している被写体に取着された無線タグT1からの無線信号を受信可能な位置にあれば、カメラと同じ位置にある必要はない。その場合、タグリーダR1とサーバ装置SVを通信ケーブルなどで接続し、タグリーダR1が受信したIDをサーバ装置SVに直接入力するようにしてもよい。 The present invention is not limited to the above embodiment. For example, the number of cameras used for imaging the subject 21 and the tag reader R1 can be changed depending on the system scale. The tag reader R1 does not have to be at the same position as the camera as long as the tag reader R1 is in a position where it can receive a wireless signal from the wireless tag T1 attached to the subject imaged by the corresponding camera. In this case, the tag reader R1 and the server device SV may be connected by a communication cable or the like, and the ID received by the tag reader R1 may be directly input to the server device SV.
また、被写体21が同時刻に複数のカメラで撮像されている場合に、前記実施形態では無線タグT1から発せられた無線信号の受信強度を利用して選択優先順位を決定した。しかし、選択優先順位を決定するための被写体画像の状態情報としては、例えば顔が正面を向いているかどうか、映像中の中央に位置するかどうか、被写体が欠けていないかどうかなどを採用してもよく、さらにはこれらの条件を組み合わせることにより、選択優先順位を決定することも可能である。さらに、閲覧者がどのような条件の映像を閲覧するかを選択できるように構成する。このようにすると、閲覧者の希望にさらに合致する映像を提供することが可能となる。 Further, when the subject 21 is captured by a plurality of cameras at the same time, the selection priority is determined using the reception intensity of the wireless signal emitted from the wireless tag T1 in the embodiment. However, the state information of the subject image for determining the selection priority order adopts, for example, whether the face is facing the front, whether it is located in the center of the video, whether the subject is missing, etc. It is also possible to determine the selection priority by combining these conditions. Furthermore, it is configured so that the viewer can select what conditions the video should be viewed. In this way, it is possible to provide an image that further matches the viewer's wishes.
また、映像データの配信時に、閲覧者が指定した被写体以外の被写体には、マスキングやモザイクをかける画像処理を施した上で配信してもよい。このように構成することにより、被写体に対するプライバシーが保たれ、閲覧者は安心してこのシステムを利用することができる。 Further, at the time of distributing the video data, a subject other than the subject designated by the viewer may be delivered after performing image processing that applies masking or mosaic. With this configuration, privacy for the subject is maintained, and the viewer can use this system with peace of mind.
さらに前記実施形態では、監視対象エリア内に存在する被写体が複数の撮像装置の撮像範囲のいずれに位置するかを、無線タグT1を用いて特定するようにした。しかし、それに限定されるものではなく、例えば撮像された映像データから顔の特徴を認識したり目の虹彩を認識する技術を利用することにより特定するようにしてもよい。さらに、これらの特定手法を組み合わせて使用することにより、被写体21をより正確に認識することが可能となる。 Furthermore, in the above-described embodiment, the wireless tag T1 is used to specify in which of the imaging ranges of the plurality of imaging devices the subject existing in the monitoring target area is located. However, the present invention is not limited to this. For example, it may be specified by using a technique for recognizing facial features from the captured video data or recognizing the iris of the eyes. Further, by using a combination of these specific methods, the subject 21 can be recognized more accurately.
また前記実施形態では、被写体21として保育園や幼稚園などの園児を想定したが、例えば、老人ホームにいる高齢者の様子を遠隔地からモニタリングしたり、ペット預かり所に預けられたペットの監視など様々な用途に利用することができる。
さらに、データメモリ13に記憶されるID受信履歴データベース13a及び蓄積映像データベース13bの構成や記憶される項目、プログラムメモリ14に格納される各プログラムの処理手順、処理内容についても、この発明の要旨を逸脱しない範囲で種々変形して実施できる。
In the above embodiment, the subject 21 is assumed to be a child such as a nursery school or a kindergarten. It can be used for various purposes.
Further, the structure of the ID
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。 In short, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.
C1〜C4…カメラ、21…被写体、SV…サーバ装置、NW…ネットワーク、PC1〜PCn…ユーザ端末、MP…携帯電話、T1…無線タグ、R1…タグリーダ、11…CPU、12…バス、13…データメモリ、13a…ID受信履歴データベース、13b…蓄積映像データベース、14…プログラムメモリ、14a…ID受信履歴作成プログラム、14b…ライブ映像配信プログラム、14c…蓄積映像配信プログラム、15…カメラ入力I/F、16…通信I/F。
C1 to C4 ... Camera, 21 ... Subject, SV ... Server device, NW ... Network, PC1 to PCn ... User terminal, MP ... Mobile phone, T1 ... Wireless tag, R1 ... Tag reader, 11 ... CPU, 12 ... Bus, 13 ... Data memory, 13a ... ID reception history database, 13b ... Stored video database, 14 ... Program memory, 14a ... ID reception history creation program, 14b ... Live video distribution program, 14c ... Stored video distribution program, 15 ... Camera input I /
Claims (1)
前記複数の撮像装置と信号伝送路を介して接続されると共に、外部端末と通信ネットワークを介して接続されるサーバ装置と、
前記監視対象エリア内に存在する被写体が前記複数の撮像装置の撮像範囲のいずれに位置するかを検出する被写体検出装置と
を具備し、
前記サーバ装置は、
前記複数の撮像装置から出力される監視画像を、前記信号伝送路を介してそれぞれ収集する手段と、
前記収集された監視画像ごとに、当該監視画像中に含まれる前記被写体の撮像状態を検出する状態検出手段と、
前記外部端末から特定の被写体を含む監視画像の配信要求が送られた場合に、前記被写体検出装置による検出結果及び前記状態検出手段の検出結果に基づいて、前記収集された複数の監視画像の中から前記特定の被写体を含みかつ当該被写体の撮像状態が最も良い監視画像を選択する手段と、
前記選択された監視画像を前記配信要求元の外部端末へ前記通信ネットワークを介して送信する手段と
を備えることを特徴とする監視システム。 A plurality of imaging devices that image a monitoring target area and output a monitoring image;
A server device connected to the plurality of imaging devices via a signal transmission path and connected to an external terminal via a communication network;
A subject detection device for detecting in which of the imaging ranges of the plurality of imaging devices a subject existing in the monitoring target area;
The server device
Means for collecting monitoring images output from the plurality of imaging devices through the signal transmission path;
For each collected monitoring image, state detection means for detecting an imaging state of the subject included in the monitoring image;
When a distribution request for a monitoring image including a specific subject is sent from the external terminal, a plurality of collected monitoring images are selected based on a detection result by the subject detection device and a detection result by the state detection unit. Means for selecting a monitoring image including the specific subject and having the best imaging state of the subject;
A monitoring system comprising: means for transmitting the selected monitoring image to the distribution request source external terminal via the communication network.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004282612A JP2006101028A (en) | 2004-09-28 | 2004-09-28 | Supervisory system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004282612A JP2006101028A (en) | 2004-09-28 | 2004-09-28 | Supervisory system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006101028A true JP2006101028A (en) | 2006-04-13 |
Family
ID=36240447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004282612A Pending JP2006101028A (en) | 2004-09-28 | 2004-09-28 | Supervisory system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006101028A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008004578A1 (en) * | 2006-07-05 | 2008-01-10 | Panasonic Corporation | Monitoring system, monitoring device and monitoring method |
JP2011120022A (en) * | 2009-12-03 | 2011-06-16 | Nec Corp | Sensing information sharing system, sensing information sharing method, and program |
JP2012248967A (en) * | 2011-05-25 | 2012-12-13 | Fujitsu Ltd | Security-ensuring remote monitoring apparatus and method |
JPWO2014054342A1 (en) * | 2012-10-05 | 2016-08-25 | ソニー株式会社 | Content acquisition device, portable device, server, information processing device, and storage medium |
KR101861191B1 (en) * | 2015-03-04 | 2018-05-28 | (주)씨넥스 | Video delivery system and attaching tag |
CN108200382A (en) * | 2017-12-15 | 2018-06-22 | 北京奇虎科技有限公司 | A kind of method and apparatus of video monitoring |
CN109508769A (en) * | 2018-11-21 | 2019-03-22 | 广州万物信息科技股份有限公司 | Target object monitoring method, device, computer equipment and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002026904A (en) * | 2000-07-03 | 2002-01-25 | Nec Commun Syst Ltd | Child confirmation monitor system |
JP2003061083A (en) * | 2001-08-22 | 2003-02-28 | Nippon Telegr & Teleph Corp <Ntt> | Real-time video image transmission system |
JP2004080347A (en) * | 2002-08-16 | 2004-03-11 | Nippon Telegr & Teleph Corp <Ntt> | Object identification system using wireless tag |
-
2004
- 2004-09-28 JP JP2004282612A patent/JP2006101028A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002026904A (en) * | 2000-07-03 | 2002-01-25 | Nec Commun Syst Ltd | Child confirmation monitor system |
JP2003061083A (en) * | 2001-08-22 | 2003-02-28 | Nippon Telegr & Teleph Corp <Ntt> | Real-time video image transmission system |
JP2004080347A (en) * | 2002-08-16 | 2004-03-11 | Nippon Telegr & Teleph Corp <Ntt> | Object identification system using wireless tag |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008004578A1 (en) * | 2006-07-05 | 2008-01-10 | Panasonic Corporation | Monitoring system, monitoring device and monitoring method |
JP2008017093A (en) * | 2006-07-05 | 2008-01-24 | Matsushita Electric Ind Co Ltd | Monitoring system, monitoring device, and monitoring method |
JP2011120022A (en) * | 2009-12-03 | 2011-06-16 | Nec Corp | Sensing information sharing system, sensing information sharing method, and program |
JP2012248967A (en) * | 2011-05-25 | 2012-12-13 | Fujitsu Ltd | Security-ensuring remote monitoring apparatus and method |
JPWO2014054342A1 (en) * | 2012-10-05 | 2016-08-25 | ソニー株式会社 | Content acquisition device, portable device, server, information processing device, and storage medium |
KR101861191B1 (en) * | 2015-03-04 | 2018-05-28 | (주)씨넥스 | Video delivery system and attaching tag |
CN108200382A (en) * | 2017-12-15 | 2018-06-22 | 北京奇虎科技有限公司 | A kind of method and apparatus of video monitoring |
CN109508769A (en) * | 2018-11-21 | 2019-03-22 | 广州万物信息科技股份有限公司 | Target object monitoring method, device, computer equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5150067B2 (en) | Monitoring system, monitoring apparatus and monitoring method | |
US8849233B2 (en) | System and method for applications on mobile communications devices | |
US7714911B2 (en) | Image pickup apparatus having communication function, method for controlling the same, and computer-readable storage medium | |
US9485404B2 (en) | Timing system and method with integrated event participant tracking management services | |
US10282619B2 (en) | Processing apparatus, storage medium, and control method | |
CN104685861B (en) | Content acquisition unit, portable unit, server, information processing unit and storage medium | |
JP5542129B2 (en) | Method for providing end device access to services, and end device and mobile terminal implementing such method | |
JP5319433B2 (en) | Imaging system, moving object, and imaging control method | |
KR101973934B1 (en) | Method for providing augmented reality, user terminal and access point using the same | |
US20120050549A1 (en) | Imaging system, imaging apparatus, control method thereof, and storage medium | |
JP2007158421A (en) | Monitoring camera system and face image tracing recording method | |
CN102843442A (en) | Method for configuring networked cameras | |
JP6016383B2 (en) | COMMUNICATION DEVICE, COMMUNICATION DEVICE CONTROL METHOD, PROGRAM | |
KR20170028425A (en) | Camera control and image streaming | |
CN103905710A (en) | Image capture method, and mobile terminal and device thereof | |
JP2006101028A (en) | Supervisory system | |
CN104735411A (en) | Camera shooting, collecting and recognizing system and collecting and recognizing method thereof | |
JP6504896B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND IMAGE TRANSFER SYSTEM | |
JP5318734B2 (en) | Image collecting method and portable device | |
KR100798917B1 (en) | Digital photo contents system and method adn device for transmitting/receiving digital photo contents in digital photo contents system | |
US20130265332A1 (en) | Information processing apparatus, control method of information processing apparatus, and storage medium storing program | |
US20100165133A1 (en) | Imaging method, imaging device, and managing device for managing images captured | |
KR20100009296A (en) | Method for controlling wireless connection of network camera | |
KR101929671B1 (en) | CCTV network interlocking beacon signal acquisition and transmission device and intelligent control system using the device | |
JP2008009746A (en) | Sensor node and monitoring method by sensor node |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Effective date: 20070911 Free format text: JAPANESE INTERMEDIATE CODE: A621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100525 |
|
A521 | Written amendment |
Effective date: 20100722 Free format text: JAPANESE INTERMEDIATE CODE: A523 |
|
A02 | Decision of refusal |
Effective date: 20110201 Free format text: JAPANESE INTERMEDIATE CODE: A02 |