JP2006101028A - Supervisory system - Google Patents

Supervisory system Download PDF

Info

Publication number
JP2006101028A
JP2006101028A JP2004282612A JP2004282612A JP2006101028A JP 2006101028 A JP2006101028 A JP 2006101028A JP 2004282612 A JP2004282612 A JP 2004282612A JP 2004282612 A JP2004282612 A JP 2004282612A JP 2006101028 A JP2006101028 A JP 2006101028A
Authority
JP
Japan
Prior art keywords
subject
camera
cameras
video
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004282612A
Other languages
Japanese (ja)
Inventor
Kazuhiro Igarashi
和広 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2004282612A priority Critical patent/JP2006101028A/en
Publication of JP2006101028A publication Critical patent/JP2006101028A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a supervisory system capable of selecting a video image with a particular object imaged thereon in an optimum state and distributing the selected video image. <P>SOLUTION: A wireless tag T1 is fitted to an object 21, a wireless signal transmitted from the wireless tag T1 is respectively received at installed positions of cameras C1 to C4, and an ID reception history database 13a stores the received ID and the reception strength of the object by each of the cameras C1 to C4. When user terminals PC1 to PCn and a mobile terminal MP transmit a video distribution request, a camera imaging the object of a supervisory object is particularized by searching the ID reception history database 13a on the basis of the ID of the object of the supervisory object included in the distribution request. Further, when there are a plurality of cameras having imaged the object of the supervisory object within the same time zone, one of the cameras with the highest reception strength stored in the ID reception history database 13a is selected, and video data imaged by the camera are selected and transmitted to a terminal of a request source. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、監視カメラ等の撮像装置で撮影された画像をネットワーク経由で閲覧者に配信する監視システムに関する。   The present invention relates to a monitoring system that distributes an image captured by an imaging device such as a monitoring camera to a viewer via a network.

近年、Webカメラやネットワークカメラにより撮影した映像を、インターネットやLAN(Local Area Network)などの各種通信ネットワークを介して閲覧者の端末へ配信するシステムへの関心が高まっている。この種のシステムを利用すると、通信ネットワークに接続されたパーソナル・コンピュータなどの端末において、ブラウザ・ソフトウェアを用いることでカメラ映像を簡単に見ることができ、閲覧者は居ながらにして遠隔地のリアルな映像を閲覧することができる。   In recent years, there has been an increasing interest in systems that distribute video captured by a Web camera or network camera to a viewer's terminal via various communication networks such as the Internet or a LAN (Local Area Network). Using this type of system, it is possible to easily view the camera video on a terminal such as a personal computer connected to a communication network by using browser software. You can browse the video.

例えば、幼稚園や保育園、託児所などにWebカメラやネットワークカメラを設置して、子供の様子を家庭や職場からリアルタイムに監視するシステムが提案されている。しかし、リアルタイム配信であると、幼稚園などが開園している時間内に閲覧しなければならないので、勤務時間中に監視することはできないし、常時リアルタイムで見ることは困難である。そこで、カメラで撮影された映像を蓄積し、リアルタイムまたは蓄積した映像を選択して配信するシステムが提案されている(例えば、特許文献1を参照。)。   For example, a system has been proposed in which a Web camera or a network camera is installed in a kindergarten, nursery school, day nursery, etc., and the state of a child is monitored in real time from a home or workplace. However, in the case of real-time distribution, since it must be viewed within the time when the kindergarten is open, it cannot be monitored during working hours, and it is difficult to always see in real time. In view of this, a system has been proposed in which videos taken by a camera are accumulated, and real-time or accumulated videos are selected and distributed (see, for example, Patent Document 1).

特開2004−112167公報JP 2004-112167 A

ところが、園内に複数のカメラを設置したシステムの場合、特定の被写体を見つけるのは困難である。例えば、幼稚園や保育園では制服や体操着などを着用していることがあり、自分の子供を見分けるのが難しい場合がある。また、子供たちは自由に動き回るため、1つのカメラで撮像された映像に収まっていることは稀である。このため、保護者は複数のカメラ映像を見比べ、その中から絶えず自分の子供を捜さなければならない。   However, in a system in which a plurality of cameras are installed in the garden, it is difficult to find a specific subject. For example, a kindergarten or a nursery school may wear uniforms or gym clothes, and it may be difficult to distinguish one's own child. In addition, since children move around freely, it is rare that they are contained in an image captured by one camera. For this reason, parents must compare multiple camera images and constantly search for their children.

この発明は上記事情に着目してなされたもので、その目的とするところは、複数のカメラを用いた監視システムにおいて、特定の被写体が最適な状態で撮像されている映像を選択して配信可能な監視システムを提供することにある。   The present invention has been made paying attention to the above circumstances, and the object of the present invention is to select and deliver a video in which a specific subject is imaged in an optimal state in a monitoring system using a plurality of cameras. Is to provide a simple monitoring system.

上記目的を達成するためにこの発明は、監視対象エリアを撮像して監視画像を出力する複数の撮像装置と、上記複数の撮像装置と信号伝送路を介して接続されると共に、外部端末と通信ネットワークを介して接続されるサーバ装置と、上記監視対象エリア内に存在する被写体が上記複数の撮像装置の撮像範囲のいずれに位置するかを検出する被写体検出装置とを備える。そして、上記サーバ装置は、上記複数の撮像装置から出力される監視画像を、上記信号伝送路を介してそれぞれ収集し、収集した監視画像ごとに、監視画像中に含まれる上記被写体の撮像状態を検出する。さらに、上記外部端末から特定の被写体を含む監視画像の配信要求が送られた場合に、上記被写体検出装置による検出結果及び検出された撮像状態に基づいて、収集された複数の監視画像の中から特定の被写体を含みかつ当該被写体の撮像状態が最も良い監視画像を選択する。そして、この選択された監視画像を配信要求元の外部端末へ通信ネットワークを介して送信するようにしたものである。   In order to achieve the above object, the present invention is connected to a plurality of imaging devices that image a monitoring target area and output a monitoring image, and are connected to the plurality of imaging devices via a signal transmission path and communicate with an external terminal. A server device connected via a network; and a subject detection device that detects in which of the imaging ranges of the plurality of imaging devices the subject existing in the monitoring target area is located. Then, the server device collects the monitoring images output from the plurality of imaging devices through the signal transmission path, and sets the imaging state of the subject included in the monitoring image for each collected monitoring image. To detect. Further, when a monitoring image delivery request including a specific subject is sent from the external terminal, based on the detection result by the subject detection device and the detected imaging state, a plurality of collected monitoring images are selected. A monitoring image including a specific subject and having the best imaging state of the subject is selected. Then, the selected monitoring image is transmitted to the external terminal as the distribution request source via the communication network.

このように構成することにより、配信される監視画像には常に閲覧を希望する特定の被写体が撮像されているため、閲覧者は複数の撮像装置が撮像した監視画像の内から特定の被写体を検索する時間や負担を軽減することが可能となる。さらに、同時刻に複数の撮像装置によって被写体が撮像されていた場合は、検出された撮像状態に基づいて、当該被写体の撮像状態が最も良い監視画像が選択されて配信されるため、閲覧者は特定の被写体が最適な状態で撮像されている監視画像を閲覧することが可能となる。   With this configuration, since a specific subject desired to be browsed is always captured in the distributed monitoring image, the viewer searches for a specific subject from among the monitoring images captured by a plurality of imaging devices. It becomes possible to reduce the time and burden to do. Furthermore, when a subject is imaged by a plurality of imaging devices at the same time, since the monitoring image with the best imaging state of the subject is selected and distributed based on the detected imaging state, the viewer can It is possible to view a monitoring image in which a specific subject is captured in an optimal state.

したがってこの発明によれば、複数のカメラを用いた監視システムにおいて、特定の被写体が最適な状態で撮像されている映像を選択して配信可能な監視システムを提供することができる。   Therefore, according to the present invention, it is possible to provide a monitoring system that can select and distribute a video in which a specific subject is captured in an optimal state in a monitoring system using a plurality of cameras.

図1は、この発明に係わる監視システムの一実施形態を示す概略構成図である。このシステムは、カメラC1〜C4、サーバ装置SV、及び通信ネットワークNWを備える。
カメラC1〜C4は、ネットワーク・インタフェースが設けられたネットワークカメラやWebカメラなどで構成される。そして、撮像管やCCD(Charge Coupled Device)等の固体撮像素子により撮像された映像をデジタル処理し、ネットワーク・インタフェースを介して映像を配信する機能を有する。カメラC1〜C4は、例えば図1に示すように監視対象エリアに一定の間隔で配置され、監視対象エリア内で移動する被写体21を分担して撮像する。カメラC1〜C4により撮像された映像信号は、カメラに設けられたネットワーク・インタフェースにより信号ケーブル又はLAN(Local Area Network)を介してサーバ装置SVに送信される。
FIG. 1 is a schematic configuration diagram showing an embodiment of a monitoring system according to the present invention. This system includes cameras C1 to C4, a server device SV, and a communication network NW.
The cameras C1 to C4 are configured by a network camera or a web camera provided with a network interface. Then, it has a function of digitally processing an image picked up by a solid-state image pickup device such as an image pickup tube or a CCD (Charge Coupled Device) and distributing the image via a network interface. For example, as shown in FIG. 1, the cameras C1 to C4 are arranged at regular intervals in the monitoring target area, and shoot the subject 21 moving within the monitoring target area. Video signals captured by the cameras C1 to C4 are transmitted to the server apparatus SV via a signal cable or a LAN (Local Area Network) by a network interface provided in the camera.

サーバ装置SVは、上記カメラC1〜C4により撮像された映像信号を上記信号ケーブル又はLANを介して受信する機能を備える。また、閲覧者が使用するユーザ端末PC1〜PCnに対して、通信ネットワークNWを介して接続される。ユーザ端末PC1〜PCnは例えばパーソナル・コンピュータにより構成され、ブラウザ・ソフトウェアを備えている。通信ネットワークNWは、例えばLAN、或いはインターネットに代表されるコンピュータ・ネットワークとこのコンピュータ・ネットワークとユーザ端末との間を接続するための加入者網とから構成される。なお、上記ユーザ端末には携帯電話機やPDA(Personal Digital Assistants)等の携帯端末MPも含まれる。これらの携帯端末MPは図示しない移動通信網を経由して上記コンピュータ・ネットワークに接続される。   The server device SV has a function of receiving the video signal captured by the cameras C1 to C4 via the signal cable or the LAN. Moreover, it connects via the communication network NW with respect to user terminal PC1-PCn which a viewer uses. The user terminals PC1 to PCn are constituted by personal computers, for example, and are provided with browser software. The communication network NW includes, for example, a computer network represented by a LAN or the Internet, and a subscriber network for connecting the computer network and a user terminal. The user terminals include mobile terminals MP such as mobile phones and PDAs (Personal Digital Assistants). These portable terminals MP are connected to the computer network via a mobile communication network (not shown).

また、閲覧者は予めサーバ装置SVにユーザ登録され、アカウントとパスワードを付与されている。このアカウントとパスワードをユーザ端末PC1〜PCn及び携帯電話MPから、通信ネットワークNWを介してサーバ装置SVに対して送信し、ユーザ認証を行うことで、カメラC1〜C4により撮像された映像を閲覧可能となる。   In addition, the viewer is registered in advance in the server device SV and given an account and a password. By transmitting this account and password from the user terminals PC1 to PCn and the mobile phone MP to the server device SV via the communication network NW and performing user authentication, the images captured by the cameras C1 to C4 can be viewed. It becomes.

さて、カメラC1〜C4による被写体21の撮像動作について図2を用いて説明する。カメラC1〜C4は構成が同一であるため、ここではカメラC1について説明を行う。幼稚園児や保育園児などの被写体21に取着された名札やバッヂには、無線タグT1が設けられている。この無線タグT1は、例えば、RFID(Radio Frequency IDentification)タグからなり、被写体ごとにユニークに設定された個別識別情報(以下、IDと呼称する)を無線信号として発信する。   Now, the imaging operation of the subject 21 by the cameras C1 to C4 will be described with reference to FIG. Since the cameras C1 to C4 have the same configuration, the camera C1 will be described here. A wireless tag T1 is provided on a name tag or badge attached to a subject 21 such as a kindergarten child or a nursery school child. The wireless tag T1 is composed of, for example, an RFID (Radio Frequency IDentification) tag, and transmits individual identification information (hereinafter referred to as ID) uniquely set for each subject as a wireless signal.

一方、カメラC1にはタグリーダR1が付設されている。タグリーダR1は、被写体21に取着された無線タグT1が発する無線信号を受信する。そして、受信した信号から被写体のIDを認識する。また、タグリーダR1は、無線タグT1が発する無線信号の受信強度を測定する機能を有する。カメラC1〜C4は、撮像により得られた映像信号と共に、上記認識されたID及び測定された受信強度を表す情報をサーバ装置SVに送信する。   On the other hand, a tag reader R1 is attached to the camera C1. The tag reader R1 receives a wireless signal emitted from the wireless tag T1 attached to the subject 21. Then, the subject ID is recognized from the received signal. The tag reader R1 has a function of measuring the reception intensity of a radio signal emitted from the radio tag T1. The cameras C1 to C4 transmit information representing the recognized ID and the measured reception intensity to the server device SV together with the video signal obtained by imaging.

サーバ装置SVは、例えば次のように構成される。図3は、その機能構成を示すブロック図である。すなわち、サーバ装置SVはマイクロプロセッサなどのCPU(Central Processing Unit)11を備える。このCPU11には、バス12を介して、データメモリ13及びプログラムメモリ14が接続され、さらにカメラ入力インタフェース(カメラ入力I/F)15と通信インタフェース(通信I/F)16が接続されている。カメラ入力I/F15は、前述したカメラC1〜C4からの映像信号と被写体のID及び受信強度を表す情報の受信処理を行う。通信I/F16は、通信ネットワークNWを介してユーザ端末PC1〜PCn及び携帯電話MPとの間でデータの送受信を行う。   The server device SV is configured as follows, for example. FIG. 3 is a block diagram showing the functional configuration. That is, the server apparatus SV includes a CPU (Central Processing Unit) 11 such as a microprocessor. A data memory 13 and a program memory 14 are connected to the CPU 11 via a bus 12, and a camera input interface (camera input I / F) 15 and a communication interface (communication I / F) 16 are further connected. The camera input I / F 15 performs reception processing of the video signal from the cameras C1 to C4 described above and information representing the subject ID and reception intensity. The communication I / F 16 transmits / receives data to / from the user terminals PC1 to PCn and the mobile phone MP via the communication network NW.

データメモリ13は、記憶媒体として例えばRAMまたはハードディスクなどを使用する。データメモリ13には、カメラC1〜C4に対応付けてID受信履歴データベース13a及び蓄積映像データベース13bが記憶される。ID受信履歴データベース13aには、タグリーダR1により受信された無線タグT1のIDと受信強度が受信時刻に対応付けて記憶される。蓄積映像データベース13bは、カメラ入力I/Fを介して受信されたカメラC1〜C4の映像データが記憶される。   The data memory 13 uses, for example, a RAM or a hard disk as a storage medium. The data memory 13 stores an ID reception history database 13a and an accumulated video database 13b in association with the cameras C1 to C4. The ID reception history database 13a stores the ID and reception intensity of the wireless tag T1 received by the tag reader R1 in association with the reception time. The stored video database 13b stores video data of the cameras C1 to C4 received via the camera input I / F.

プログラムメモリ14には、この発明に係わる制御プログラムとして、ID受信履歴作成プログラム14a、ライブ映像配信プログラム14b及び蓄積映像配信プログラム14cが格納される。ID受信履歴作成プログラム14aは、前述のID受信履歴データベース13aの作成を行う。ライブ映像配信プログラム14bは、ユーザ端末PC1〜PCn及び携帯端末MPからの映像配信要求に応じて、カメラC1〜C4により撮像された映像データをリアルタイムで配信する。蓄積映像配信プログラム14cは、ユーザ端末PC1〜PCn及び携帯端末MPからの映像配信要求に応じて、蓄積映像データベース13bから該当するカメラ映像を読み出して配信する。   The program memory 14 stores an ID reception history creation program 14a, a live video distribution program 14b, and a stored video distribution program 14c as control programs according to the present invention. The ID reception history creation program 14a creates the ID reception history database 13a described above. The live video distribution program 14b distributes video data captured by the cameras C1 to C4 in real time in response to video distribution requests from the user terminals PC1 to PCn and the portable terminal MP. The stored video distribution program 14c reads and distributes the corresponding camera video from the stored video database 13b in response to video distribution requests from the user terminals PC1 to PCn and the portable terminal MP.

ところで、上記ライブ映像配信プログラム14b及び蓄積映像配信プログラム14cはいずれも配信対象映像の選択制御機能を備えている。配信対象映像の選択制御機能は、ユーザ端末PC1〜PCn及び携帯端末MPから映像配信要求が送られた場合に、この配信要求から監視対象の被写体のIDを抽出する。そして、カメラC1〜C4に対応して設けられたID受信履歴データベース13aを検索することで、上記抽出されたIDに対応する被写体を撮像したカメラを特定する。そして、同一時間帯に上記被写体を撮像したカメラが複数台存在する場合には、ID受信履歴データベース13aに記憶された受信強度が最も大きいカメラを1台選択し、このカメラにより撮像された映像データを選択して送信させる。   By the way, both the live video distribution program 14b and the stored video distribution program 14c have a distribution target video selection control function. When a video distribution request is sent from the user terminals PC1 to PCn and the portable terminal MP, the distribution target video selection control function extracts the ID of the subject to be monitored from the distribution request. And the camera which imaged the to-be-photographed object corresponding to the said extracted ID is specified by searching the ID reception log | history database 13a provided corresponding to the cameras C1-C4. If there are a plurality of cameras that capture the subject in the same time period, one camera having the highest reception intensity stored in the ID reception history database 13a is selected, and the video data captured by the camera is selected. Select to send.

次に、以上のように構成されたシステムによる監視に関わる動作について説明する。
カメラC1〜C4は、被写体21が存在する監視対象領域を保育園または幼稚園の開園時刻から閉園時刻まで連続して撮像する。また、被写体21に取着された無線タグT1は、被写体のIDを無線信号としてある一定の周期(この実施例では1分間)ごとに発信する。カメラC1〜C4に付設されたタグリーダR1は、受信した無線信号からIDを認識し、さらに無線信号の受信強度を測定する。そして、カメラC1〜C4は、撮像した映像と共に、上記受信されたID及び測定された受信強度をサーバ装置SVに対して送信する。
Next, operations related to monitoring by the system configured as described above will be described.
The cameras C <b> 1 to C <b> 4 continuously image the monitoring target area where the subject 21 exists from the opening time of the nursery school or the kindergarten to the closing time. Further, the wireless tag T1 attached to the subject 21 transmits the subject ID as a wireless signal every certain period (1 minute in this embodiment). The tag reader R1 attached to the cameras C1 to C4 recognizes the ID from the received wireless signal, and further measures the reception strength of the wireless signal. Then, the cameras C1 to C4 transmit the received ID and the measured received intensity to the server device SV together with the captured video.

これに対して、サーバ装置SVでは、常駐プログラムとしてID受信履歴作成プログラム14aが実行されている。このID受信履歴作成プログラム14aに従いサーバ装置SVのCPU11は、カメラ入力I/F15により受信された上記カメラ映像を、受信時刻を表すタイムスタンプを付して蓄積映像データベース13bに蓄積する。またそれと共に、受信されたID及び受信強度をID受信履歴データベース13aに受信時刻に対応付けて記憶する。その一例を図4に示す。   On the other hand, in the server apparatus SV, an ID reception history creation program 14a is executed as a resident program. In accordance with the ID reception history creation program 14a, the CPU 11 of the server device SV stores the camera video received by the camera input I / F 15 in the stored video database 13b with a time stamp indicating the reception time. At the same time, the received ID and reception intensity are stored in the ID reception history database 13a in association with the reception time. An example is shown in FIG.

次に、上記作成されたID受信履歴データベース13aを利用して、撮像中のカメラ映像や蓄積映像データベース13bに記憶されたカメラ映像を通信ネットワークNWを介してユーザ端末PC1〜PCn及び携帯電話MPに対して配信する動作について説明する。   Next, using the created ID reception history database 13a, the camera video being captured and the camera video stored in the stored video database 13b are transmitted to the user terminals PC1 to PCn and the mobile phone MP via the communication network NW. An operation for distributing the content will be described.

(A)ライブ映像の配信
図5は、ライブ映像配信制御の処理手順と処理内容を示すフローチャートである。
ユーザ端末PC1〜PCnにおいて閲覧者がライブ映像の閲覧操作を行うと、当該ユーザ端末PC1〜PCnからサーバ装置SVに対し、通信ネットワークNWを介して監視対象の被写体21のIDを含むライブ映像閲覧要求が送信される。
(A) Live video distribution
FIG. 5 is a flowchart showing a processing procedure and processing contents of live video distribution control.
When the viewer performs a live video browsing operation on the user terminals PC1 to PCn, a live video browsing request including the ID of the subject 21 to be monitored is transmitted from the user terminals PC1 to PCn to the server SV via the communication network NW. Is sent.

サーバ装置SVは、上記ライブ映像閲覧要求が通信I/F16において受信されると、以後ライブ映像配信プログラム14bに従い以下のようにライブ配信制御を実行する。すなわち、CPU11は先ずステップS5aにおいて、上記受信されたライブ映像閲覧要求から監視対象の被写体21のIDを抽出する。続いてステップS5bにより、上記抽出されたIDをもとに各ID受信履歴データベース13aを検索して、該当する被写体を撮像したカメラを特定する。なお、ID受信履歴データベース13aに現在時刻と一致する受信時刻が記憶されていない場合には、現在時刻に最も近い受信時刻を選択し、この受信時刻に対応付けて記憶されている受信IDをもとにカメラを特定する。   When the live video browsing request is received in the communication I / F 16, the server device SV subsequently performs live distribution control according to the live video distribution program 14 b as follows. That is, first, in step S5a, the CPU 11 extracts the ID of the subject 21 to be monitored from the received live video browsing request. Subsequently, in step S5b, each ID reception history database 13a is searched based on the extracted ID, and the camera that captured the corresponding subject is specified. If the reception time that matches the current time is not stored in the ID reception history database 13a, the reception time closest to the current time is selected, and the reception ID stored in association with this reception time is also stored. And identify the camera.

次にCPU11は、上記検索処理により特定されたカメラが複数台存在するか否かをステップS5cにより判定する。この判定により、複数のカメラが存在すると判定された場合は、ステップS5dに移行し、各カメラのID受信履歴データベース13aにアクセスし、記憶されている受信強度が最も大きいカメラを選択する。かくして、監視対象の被写体が最も大きく写っているカメラが選択される。   Next, the CPU 11 determines whether or not there are a plurality of cameras specified by the search process in step S5c. If it is determined by this determination that there are a plurality of cameras, the process proceeds to step S5d, the ID reception history database 13a of each camera is accessed, and the camera having the highest received intensity is selected. In this way, the camera in which the subject to be monitored is shown as the largest is selected.

そしてCPU11は、ステップS5eにより、以後上記選択されたカメラから送られる映像データを通信ネットワークNWを介して配信要求元のユーザ端末PC1〜PCn又は携帯端末MPへ送信する。また、ステップS5dの判定において、被写体21を撮像中のカメラが1台のみ検索された場合には、ステップS5eに移行して、以後上記検索されたカメラから送られた映像データを配信要求元のユーザ端末PC1〜PCn又は携帯端末MPへ送信する。   Then, in step S5e, the CPU 11 transmits the video data sent from the selected camera to the user terminals PC1 to PCn or the portable terminal MP as the distribution request source via the communication network NW. If it is determined in step S5d that only one camera that is imaging the subject 21 is searched, the process proceeds to step S5e, and the video data sent from the searched camera is transmitted to the distribution request source. It transmits to user terminal PC1-PCn or portable terminal MP.

さらに、上記配信中にCPU11は、ステップS5fにおいて、ユーザ端末PC1〜PCn又は携帯端末MPから閲覧終了要求が受信されたか否かの判定を行い、受信されない場合にはステップS5gに移行する。そしてステップS5gにおいて、ある単位時間(例えば1分)の時刻経過を検知すると、ステップS5bに戻り、先に述べた動作を繰り返し行う。これに対しステップS5fの終了判定において閲覧終了要求の受信を検出すると、サーバ装置SVはライブ映像の配信を終了する。   Furthermore, during the distribution, the CPU 11 determines whether or not a browsing end request is received from the user terminals PC1 to PCn or the portable terminal MP in step S5f. If not received, the process proceeds to step S5g. In step S5g, when a time elapse of a certain unit time (for example, 1 minute) is detected, the process returns to step S5b to repeat the above-described operation. On the other hand, when the reception end request is detected in the end determination in step S5f, the server device SV ends the live video distribution.

(B)蓄積映像の配信
図6は、蓄積映像配信制御の処理手順と処理内容を示すフローチャートである。
ユーザ端末PC1〜PCn又は携帯端末MPにおいて閲覧者が蓄積映像の閲覧操作を行うと、当該ユーザ端末PC1〜PCn又は携帯端末MPからサーバ装置SVに対し、通信ネットワークNWを介して、閲覧対象期間を指定する情報及び監視対象の被写体21のIDを含む蓄積映像閲覧要求が送信される。
(B) Distribution of stored video
FIG. 6 is a flowchart showing the processing procedure and processing contents of the stored video distribution control.
When the viewer performs an operation for browsing the stored video in the user terminals PC1 to PCn or the portable terminal MP, the user terminal PC1 to PCn or the portable terminal MP sends the browsing target period to the server device SV via the communication network NW. A stored image browsing request including information to be specified and the ID of the subject 21 to be monitored is transmitted.

これに対しサーバ装置SVは、上記蓄積映像閲覧要求が通信I/F16において受信されると、以後蓄積映像配信プログラム14cに従い以下のように蓄積配信制御を実行する。すなわち、CPU11は、先ずステップS6aにおいて、上記受信された蓄積映像閲覧要求から閲覧対象期間の指定情報及び監視対象の被写体21のIDをそれぞれ抽出する。そして、上記指定された閲覧期間の開始時刻及び終了時刻を設定し、以後上記設定された開始時刻から終了時刻まで一定時間置きに蓄積映像を送信するための処理をステップS6bループ開始からステップS6hのループ終了まで繰り返し行う。   On the other hand, when the stored video browsing request is received in the communication I / F 16, the server device SV subsequently executes storage distribution control according to the stored video distribution program 14c as follows. That is, first, in step S6a, the CPU 11 extracts the browsing target period designation information and the monitoring subject ID 21 from the received stored video browsing request. Then, the start time and end time of the designated browsing period are set, and the process for transmitting the stored video at regular intervals from the set start time to the end time is performed from the start of the step S6b loop to the step S6h. Repeat until the end of the loop.

すなわち、CPU11は先ずステップS6cにおいて、上記抽出されたIDをもとに各ID受信履歴データベース13aを検索して、該当する被写体を撮像したカメラを特定する。なお、ID受信履歴データベース13aに上記設定時刻と一致する受信時刻が記憶されていない場合には、上記設定時刻に最も近い受信時刻を選択し、この受信時刻に対応付けて記憶されている受信IDをもとにカメラを特定する。   That is, first, in step S6c, the CPU 11 searches each ID reception history database 13a based on the extracted ID, and specifies the camera that captured the corresponding subject. If the reception time that matches the set time is not stored in the ID reception history database 13a, the reception time closest to the set time is selected, and the reception ID stored in association with the reception time is selected. Identify the camera based on

次にCPU11は、上記検索処理により特定されたカメラが複数台存在するか否かをステップS6dにより判定する。この判定により、複数のカメラが存在すると判定された場合は、ステップS6eに移行し、各カメラのID受信履歴データベース13aにアクセスし、記憶されている受信強度が最も大きいカメラを選択する。かくして、監視対象の被写体が最も大きく写っているカメラが選択される。   Next, the CPU 11 determines in step S6d whether there are a plurality of cameras specified by the search process. If it is determined by this determination that there are a plurality of cameras, the process proceeds to step S6e, the ID reception history database 13a of each camera is accessed, and the camera having the highest received intensity is selected. In this way, the camera in which the subject to be monitored is shown as the largest is selected.

そしてCPU11は、ステップS6fにより、上記選択されたカメラに対応する蓄積映像データベース13bをアクセスし、この蓄積映像データベース13bから設定された時刻に対応する監視映像データを読み出す。そして、この読み出された監視映像データを、通信ネットワークNWを介して配信要求元のユーザ端末PC1〜PCn又は携帯端末MPへ送信する。   In step S6f, the CPU 11 accesses the stored video database 13b corresponding to the selected camera, and reads the monitoring video data corresponding to the set time from the stored video database 13b. Then, the read monitoring video data is transmitted to the distribution request source user terminals PC1 to PCn or the portable terminal MP via the communication network NW.

また、ステップS6dの判定において、被写体21を撮像中のカメラが1台のみ検索された場合には、そのままステップS6fに移行する。そして、上記検索されたカメラに対応する蓄積映像データベース13bをアクセスして、上記設定された時刻に対応する監視映像データを読み出し、この読み出された監視映像データを通信ネットワークNWを介して配信要求元のユーザ端末PC1〜PCn又は携帯端末MPへ送信する。   If it is determined in step S6d that only one camera that is imaging the subject 21 is searched, the process proceeds to step S6f. Then, the stored video database 13b corresponding to the searched camera is accessed, the monitoring video data corresponding to the set time is read out, and the read monitoring video data is requested to be distributed via the communication network NW. Transmit to the original user terminals PC1 to PCn or the portable terminal MP.

そうしてある設定時刻における映像データの送信が終了すると、CPU11はステップS6gに移行して次の時刻を設定し、ステップS6bのループ開始からステップS6hのループ終了まで蓄積映像の配信処理を繰り返す。
例えば、図7の期間G〜期間Lに示すように被写体21がカメラC1〜C4によりそれぞれ撮像されたとする。このうち期間Kと期間Lにおいては、被写体21がカメラC3及びカメラC4の両方で撮像されている。この場合、蓄積映像配信プログラム14bは、ID受信履歴データベース13aをアクセスして、期間Kと期間Lにおける無線タグT1から発信された無線信号の受信強度をそれぞれ読み出す。そして、期間Kの受信強度がレベル5、期間Lの受信強度がレベル3であった場合、撮影時間が重複している時間に関しては、受信強度の大きいカメラC3を優先する。かくして、その時刻ごとに無線タグT1からの受信レベルが最も大きい映像データ、つまり監視対象の被写体21が最も大きく写っていると推測される監視映像データが選択され、閲覧者の端末へ配信される。
When the transmission of the video data at the set time is completed, the CPU 11 proceeds to step S6g to set the next time, and repeats the accumulated video distribution process from the start of the loop in step S6b to the end of the loop in step S6h.
For example, it is assumed that the subject 21 is captured by the cameras C1 to C4 as shown in the period G to the period L in FIG. Among these, in the period K and the period L, the subject 21 is imaged by both the camera C3 and the camera C4. In this case, the stored video distribution program 14b accesses the ID reception history database 13a and reads out the reception strengths of the wireless signals transmitted from the wireless tag T1 in the period K and the period L, respectively. When the reception intensity in the period K is level 5 and the reception intensity in the period L is level 3, priority is given to the camera C3 having a high reception intensity for the time when the imaging times overlap. Thus, the video data having the highest reception level from the wireless tag T1 at that time, that is, the monitoring video data that is estimated to be the largest subject 21 to be monitored is selected and distributed to the viewer's terminal. .

以上述べたようにこの実施形態では、被写体21に無線タグT1を取着すると共に、これらの無線タグT1から送信される無線信号を各カメラC1〜C4の設置位置においてそれぞれ受信し、受信された被写体のID及び受信強度をカメラC1〜C4ごとにID受信履歴データベース13aに記憶する。そして、ユーザ端末PC1〜PCn及び携帯端末MPから映像配信要求が送られた場合に、この配信要求に含まれる監視対象の被写体のIDをもとに上記ID受信履歴データベース13aを検索することで、上記監視対象の被写体を撮像したカメラを特定する。また、同一時間帯に上記監視対象の被写体を撮像したカメラが複数台存在する場合には、ID受信履歴データベース13aに記憶された受信強度が最も大きいカメラを1台選択し、このカメラにより撮像された映像データを選択して要求元の端末へ送信するようにしている。   As described above, in this embodiment, the wireless tag T1 is attached to the subject 21, and the wireless signals transmitted from these wireless tags T1 are received and received at the installation positions of the cameras C1 to C4, respectively. The subject ID and reception intensity are stored in the ID reception history database 13a for each of the cameras C1 to C4. Then, when a video distribution request is sent from the user terminals PC1 to PCn and the portable terminal MP, by searching the ID reception history database 13a based on the ID of the subject to be monitored included in the distribution request, A camera that images the subject to be monitored is specified. In addition, when there are a plurality of cameras that capture the subject to be monitored in the same time zone, one camera having the highest reception intensity stored in the ID reception history database 13a is selected and captured by this camera. The selected video data is selected and transmitted to the requesting terminal.

したがってこの実施形態によれば、配信される映像データには常に閲覧を希望する特定の被写体21が撮像されているため、閲覧者はカメラC1〜C4が撮像した映像の内から特定の被写体21を検索する時間や負担を軽減することが可能となる。さらに、同時刻に複数のカメラC1〜C4によって被写体が撮像されていた場合は、被写体21に取着された無線タグT1が発する無線信号の受信強度に基づいて、受信強度が最も大きいカメラが選択されてその撮像映像データが配信されるため、閲覧者は常に特定の被写体が最も大きく写されている映像データを閲覧することが可能となり、これにより例えば自身の子供の様子をより明瞭に確認することが可能となる。   Therefore, according to this embodiment, since the specific subject 21 desired to be browsed is always captured in the video data to be distributed, the viewer selects the specific subject 21 from the images captured by the cameras C1 to C4. Search time and burden can be reduced. Furthermore, when the subject is captured by a plurality of cameras C1 to C4 at the same time, the camera with the highest reception strength is selected based on the reception strength of the wireless signal emitted from the wireless tag T1 attached to the subject 21. Since the captured video data is distributed, the viewer can always browse the video data in which the specific subject is the largest image, thereby more clearly confirming the state of the child, for example. It becomes possible.

なお、この発明は上記実施形態に限定されるものではない。例えば、被写体21の撮像に用いられるカメラの台数やタグリーダR1は、システム規模によって変更可能である。また、タグリーダR1は、対応するカメラが撮像している被写体に取着された無線タグT1からの無線信号を受信可能な位置にあれば、カメラと同じ位置にある必要はない。その場合、タグリーダR1とサーバ装置SVを通信ケーブルなどで接続し、タグリーダR1が受信したIDをサーバ装置SVに直接入力するようにしてもよい。   The present invention is not limited to the above embodiment. For example, the number of cameras used for imaging the subject 21 and the tag reader R1 can be changed depending on the system scale. The tag reader R1 does not have to be at the same position as the camera as long as the tag reader R1 is in a position where it can receive a wireless signal from the wireless tag T1 attached to the subject imaged by the corresponding camera. In this case, the tag reader R1 and the server device SV may be connected by a communication cable or the like, and the ID received by the tag reader R1 may be directly input to the server device SV.

また、被写体21が同時刻に複数のカメラで撮像されている場合に、前記実施形態では無線タグT1から発せられた無線信号の受信強度を利用して選択優先順位を決定した。しかし、選択優先順位を決定するための被写体画像の状態情報としては、例えば顔が正面を向いているかどうか、映像中の中央に位置するかどうか、被写体が欠けていないかどうかなどを採用してもよく、さらにはこれらの条件を組み合わせることにより、選択優先順位を決定することも可能である。さらに、閲覧者がどのような条件の映像を閲覧するかを選択できるように構成する。このようにすると、閲覧者の希望にさらに合致する映像を提供することが可能となる。   Further, when the subject 21 is captured by a plurality of cameras at the same time, the selection priority is determined using the reception intensity of the wireless signal emitted from the wireless tag T1 in the embodiment. However, the state information of the subject image for determining the selection priority order adopts, for example, whether the face is facing the front, whether it is located in the center of the video, whether the subject is missing, etc. It is also possible to determine the selection priority by combining these conditions. Furthermore, it is configured so that the viewer can select what conditions the video should be viewed. In this way, it is possible to provide an image that further matches the viewer's wishes.

また、映像データの配信時に、閲覧者が指定した被写体以外の被写体には、マスキングやモザイクをかける画像処理を施した上で配信してもよい。このように構成することにより、被写体に対するプライバシーが保たれ、閲覧者は安心してこのシステムを利用することができる。   Further, at the time of distributing the video data, a subject other than the subject designated by the viewer may be delivered after performing image processing that applies masking or mosaic. With this configuration, privacy for the subject is maintained, and the viewer can use this system with peace of mind.

さらに前記実施形態では、監視対象エリア内に存在する被写体が複数の撮像装置の撮像範囲のいずれに位置するかを、無線タグT1を用いて特定するようにした。しかし、それに限定されるものではなく、例えば撮像された映像データから顔の特徴を認識したり目の虹彩を認識する技術を利用することにより特定するようにしてもよい。さらに、これらの特定手法を組み合わせて使用することにより、被写体21をより正確に認識することが可能となる。   Furthermore, in the above-described embodiment, the wireless tag T1 is used to specify in which of the imaging ranges of the plurality of imaging devices the subject existing in the monitoring target area is located. However, the present invention is not limited to this. For example, it may be specified by using a technique for recognizing facial features from the captured video data or recognizing the iris of the eyes. Further, by using a combination of these specific methods, the subject 21 can be recognized more accurately.

また前記実施形態では、被写体21として保育園や幼稚園などの園児を想定したが、例えば、老人ホームにいる高齢者の様子を遠隔地からモニタリングしたり、ペット預かり所に預けられたペットの監視など様々な用途に利用することができる。
さらに、データメモリ13に記憶されるID受信履歴データベース13a及び蓄積映像データベース13bの構成や記憶される項目、プログラムメモリ14に格納される各プログラムの処理手順、処理内容についても、この発明の要旨を逸脱しない範囲で種々変形して実施できる。
In the above embodiment, the subject 21 is assumed to be a child such as a nursery school or a kindergarten. It can be used for various purposes.
Further, the structure of the ID reception history database 13a and the stored video database 13b stored in the data memory 13 and the items to be stored, the processing procedure of each program stored in the program memory 14, and the processing contents are also included in the gist of the present invention. Various modifications can be made without departing from the scope.

要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   In short, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

この発明に係わる監視システムの一実施形態を実現するシステムの概略構成図。BRIEF DESCRIPTION OF THE DRAWINGS The schematic block diagram of the system which implement | achieves one Embodiment of the monitoring system concerning this invention. 信号発信機から発信された識別情報を信号受信機により受信する様子を示す図。The figure which shows a mode that the identification information transmitted from the signal transmitter is received by the signal receiver. 図1に示すシステムのサーバ装置の機能構成を示すブロック図。The block diagram which shows the function structure of the server apparatus of the system shown in FIG. 図3に示すサーバ装置に設けられるID受信履歴データベースの構成を示す図。The figure which shows the structure of ID reception log | history database provided in the server apparatus shown in FIG. 図3に示すサーバ装置によるライブ映像配信の処理手順と処理内容を示すフローチャート。The flowchart which shows the process sequence and process content of the live video delivery by the server apparatus shown in FIG. 図3に示すサーバ装置による蓄積映像配信の処理手順と処理内容を示すフローチャート。The flowchart which shows the process sequence and process content of the accumulation | storage video delivery by the server apparatus shown in FIG. 蓄積映像配信における配信映像の選択過程を示す図。The figure which shows the selection process of the delivery video in stored video delivery.

符号の説明Explanation of symbols

C1〜C4…カメラ、21…被写体、SV…サーバ装置、NW…ネットワーク、PC1〜PCn…ユーザ端末、MP…携帯電話、T1…無線タグ、R1…タグリーダ、11…CPU、12…バス、13…データメモリ、13a…ID受信履歴データベース、13b…蓄積映像データベース、14…プログラムメモリ、14a…ID受信履歴作成プログラム、14b…ライブ映像配信プログラム、14c…蓄積映像配信プログラム、15…カメラ入力I/F、16…通信I/F。   C1 to C4 ... Camera, 21 ... Subject, SV ... Server device, NW ... Network, PC1 to PCn ... User terminal, MP ... Mobile phone, T1 ... Wireless tag, R1 ... Tag reader, 11 ... CPU, 12 ... Bus, 13 ... Data memory, 13a ... ID reception history database, 13b ... Stored video database, 14 ... Program memory, 14a ... ID reception history creation program, 14b ... Live video distribution program, 14c ... Stored video distribution program, 15 ... Camera input I / F 16 Communication I / F.

Claims (1)

監視対象エリアを撮像して監視画像を出力する複数の撮像装置と、
前記複数の撮像装置と信号伝送路を介して接続されると共に、外部端末と通信ネットワークを介して接続されるサーバ装置と、
前記監視対象エリア内に存在する被写体が前記複数の撮像装置の撮像範囲のいずれに位置するかを検出する被写体検出装置と
を具備し、
前記サーバ装置は、
前記複数の撮像装置から出力される監視画像を、前記信号伝送路を介してそれぞれ収集する手段と、
前記収集された監視画像ごとに、当該監視画像中に含まれる前記被写体の撮像状態を検出する状態検出手段と、
前記外部端末から特定の被写体を含む監視画像の配信要求が送られた場合に、前記被写体検出装置による検出結果及び前記状態検出手段の検出結果に基づいて、前記収集された複数の監視画像の中から前記特定の被写体を含みかつ当該被写体の撮像状態が最も良い監視画像を選択する手段と、
前記選択された監視画像を前記配信要求元の外部端末へ前記通信ネットワークを介して送信する手段と
を備えることを特徴とする監視システム。
A plurality of imaging devices that image a monitoring target area and output a monitoring image;
A server device connected to the plurality of imaging devices via a signal transmission path and connected to an external terminal via a communication network;
A subject detection device for detecting in which of the imaging ranges of the plurality of imaging devices a subject existing in the monitoring target area;
The server device
Means for collecting monitoring images output from the plurality of imaging devices through the signal transmission path;
For each collected monitoring image, state detection means for detecting an imaging state of the subject included in the monitoring image;
When a distribution request for a monitoring image including a specific subject is sent from the external terminal, a plurality of collected monitoring images are selected based on a detection result by the subject detection device and a detection result by the state detection unit. Means for selecting a monitoring image including the specific subject and having the best imaging state of the subject;
A monitoring system comprising: means for transmitting the selected monitoring image to the distribution request source external terminal via the communication network.
JP2004282612A 2004-09-28 2004-09-28 Supervisory system Pending JP2006101028A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004282612A JP2006101028A (en) 2004-09-28 2004-09-28 Supervisory system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004282612A JP2006101028A (en) 2004-09-28 2004-09-28 Supervisory system

Publications (1)

Publication Number Publication Date
JP2006101028A true JP2006101028A (en) 2006-04-13

Family

ID=36240447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004282612A Pending JP2006101028A (en) 2004-09-28 2004-09-28 Supervisory system

Country Status (1)

Country Link
JP (1) JP2006101028A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008004578A1 (en) * 2006-07-05 2008-01-10 Panasonic Corporation Monitoring system, monitoring device and monitoring method
JP2011120022A (en) * 2009-12-03 2011-06-16 Nec Corp Sensing information sharing system, sensing information sharing method, and program
JP2012248967A (en) * 2011-05-25 2012-12-13 Fujitsu Ltd Security-ensuring remote monitoring apparatus and method
JPWO2014054342A1 (en) * 2012-10-05 2016-08-25 ソニー株式会社 Content acquisition device, portable device, server, information processing device, and storage medium
KR101861191B1 (en) * 2015-03-04 2018-05-28 (주)씨넥스 Video delivery system and attaching tag
CN108200382A (en) * 2017-12-15 2018-06-22 北京奇虎科技有限公司 A kind of method and apparatus of video monitoring
CN109508769A (en) * 2018-11-21 2019-03-22 广州万物信息科技股份有限公司 Target object monitoring method, device, computer equipment and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002026904A (en) * 2000-07-03 2002-01-25 Nec Commun Syst Ltd Child confirmation monitor system
JP2003061083A (en) * 2001-08-22 2003-02-28 Nippon Telegr & Teleph Corp <Ntt> Real-time video image transmission system
JP2004080347A (en) * 2002-08-16 2004-03-11 Nippon Telegr & Teleph Corp <Ntt> Object identification system using wireless tag

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002026904A (en) * 2000-07-03 2002-01-25 Nec Commun Syst Ltd Child confirmation monitor system
JP2003061083A (en) * 2001-08-22 2003-02-28 Nippon Telegr & Teleph Corp <Ntt> Real-time video image transmission system
JP2004080347A (en) * 2002-08-16 2004-03-11 Nippon Telegr & Teleph Corp <Ntt> Object identification system using wireless tag

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008004578A1 (en) * 2006-07-05 2008-01-10 Panasonic Corporation Monitoring system, monitoring device and monitoring method
JP2008017093A (en) * 2006-07-05 2008-01-24 Matsushita Electric Ind Co Ltd Monitoring system, monitoring device, and monitoring method
JP2011120022A (en) * 2009-12-03 2011-06-16 Nec Corp Sensing information sharing system, sensing information sharing method, and program
JP2012248967A (en) * 2011-05-25 2012-12-13 Fujitsu Ltd Security-ensuring remote monitoring apparatus and method
JPWO2014054342A1 (en) * 2012-10-05 2016-08-25 ソニー株式会社 Content acquisition device, portable device, server, information processing device, and storage medium
KR101861191B1 (en) * 2015-03-04 2018-05-28 (주)씨넥스 Video delivery system and attaching tag
CN108200382A (en) * 2017-12-15 2018-06-22 北京奇虎科技有限公司 A kind of method and apparatus of video monitoring
CN109508769A (en) * 2018-11-21 2019-03-22 广州万物信息科技股份有限公司 Target object monitoring method, device, computer equipment and storage medium

Similar Documents

Publication Publication Date Title
JP5150067B2 (en) Monitoring system, monitoring apparatus and monitoring method
US8849233B2 (en) System and method for applications on mobile communications devices
US7714911B2 (en) Image pickup apparatus having communication function, method for controlling the same, and computer-readable storage medium
US9485404B2 (en) Timing system and method with integrated event participant tracking management services
US10282619B2 (en) Processing apparatus, storage medium, and control method
CN104685861B (en) Content acquisition unit, portable unit, server, information processing unit and storage medium
JP5542129B2 (en) Method for providing end device access to services, and end device and mobile terminal implementing such method
JP5319433B2 (en) Imaging system, moving object, and imaging control method
KR101973934B1 (en) Method for providing augmented reality, user terminal and access point using the same
US20120050549A1 (en) Imaging system, imaging apparatus, control method thereof, and storage medium
JP2007158421A (en) Monitoring camera system and face image tracing recording method
CN102843442A (en) Method for configuring networked cameras
JP6016383B2 (en) COMMUNICATION DEVICE, COMMUNICATION DEVICE CONTROL METHOD, PROGRAM
KR20170028425A (en) Camera control and image streaming
CN103905710A (en) Image capture method, and mobile terminal and device thereof
JP2006101028A (en) Supervisory system
CN104735411A (en) Camera shooting, collecting and recognizing system and collecting and recognizing method thereof
JP6504896B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND IMAGE TRANSFER SYSTEM
JP5318734B2 (en) Image collecting method and portable device
KR100798917B1 (en) Digital photo contents system and method adn device for transmitting/receiving digital photo contents in digital photo contents system
US20130265332A1 (en) Information processing apparatus, control method of information processing apparatus, and storage medium storing program
US20100165133A1 (en) Imaging method, imaging device, and managing device for managing images captured
KR20100009296A (en) Method for controlling wireless connection of network camera
KR101929671B1 (en) CCTV network interlocking beacon signal acquisition and transmission device and intelligent control system using the device
JP2008009746A (en) Sensor node and monitoring method by sensor node

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20070911

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Written amendment

Effective date: 20100722

Free format text: JAPANESE INTERMEDIATE CODE: A523

A02 Decision of refusal

Effective date: 20110201

Free format text: JAPANESE INTERMEDIATE CODE: A02